- kimukou2628
- 3580
- 0
- 5
- 0
#TokyoNLP 頻度:無限に存在=>写像を考える 既存のカーネルを組み合わせて=>カスタムカーネル式を構築することも可能 特徴ベクトルの内積に変形すればわかりやすくなる カーネル利用:双対問題 でとく
2011-09-10 13:59:19#TokyoNLP データ=>カーネル関数=>カーネル行列=>学習アルゴリズム=>予測関数 <=カーネル関数の選択:フューチャーデザインイングに近い
2011-09-10 14:01:30RT @y42sora: Semantic Similarity kernelはTwitter見たいな短いテキストに対してどうするかの一手法。要はそのテキストを検索エンジンに投げて、その結果の上位何件かを取ってきて処理するらしい。 #tokyonlp
2011-09-10 14:02:57#TokyoNLP オンライン学習でも疎にする=>データを全部舐めずにサボらないと駄目 <=全部舐めると不純データで重みが重くなってしまう 時間をかけた方が良い解析が出来るわけではないというのが厳しい処 らしい
2011-09-10 14:11:16一応スライドアップしました。「まとめ」がないという悲惨な状態ですが・・・。発表後修正すると思います。 / 文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜 http://j.mp/nQ2rjP #tokyonlp
2011-09-10 14:17:33RT @a_bicky: 一応スライドアップしました。「まとめ」がないという悲惨な状態ですが・・・。発表後修正すると思います。 / 文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜 http://j.mp/nQ2rjP #tokyonlp
2011-09-10 14:24:43#tokyoNLP http://t.co/fJ60aqX P10 カーネル法の図解) 二次元だと分類しづらい物を高次元に射影して分類する
2011-09-10 14:37:09#tokyoNLP http://t.co/fJ60aqX P12 カーネル関数を使うと、特徴ベクトル分の処理が省かれるイメージ
2011-09-10 14:38:18#tokyoNLP http://t.co/fJ60aqX P17 最も近いデータ・・サポートベクトル p22 の形だと最適なサポートベクトルが取れるだろう というhanasi <分類が出来ない物はソフトマージンで
2011-09-10 14:41:05#tokyoNLP http://t.co/fJ60aqX P17 特徴ベクトルの内積 =>カーネル計算すると文字数のN乗の計算量になる =>P33 動的計画法を使う というお話
2011-09-10 14:51:10TokyoNLPに参加中。今回も話題は濃いが、入門向けとして発表者が前提知識から解説して下さっているため、全くついていけないということはない。しかし寄せられる質問がどれもこれも厳しいのぅ… http://t.co/C0iHMJ0 #TokyoNLP
2011-09-10 14:59:43RT @a_bicky: 一応スライドアップしました。「まとめ」がないという悲惨な状態ですが・・・。発表後修正すると思います。 / 文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜 http://j.mp/nQ2rjP #tokyonlp
2011-09-10 15:02:32Rのストリングカーネルは珍しくgap-weightedカーネルが用意されている。他のストリングカーネルを実装していると言っているシステム(shogunなど)はスペクトラムカーネルであることが殆ど #TokyoNLP
2011-09-10 15:14:19gap-weightedカーネル、文字n-gramと比較して若干の精度向上を見込めるが、計算量が半端ではないので、コストパフォーマンスに見合うとは言いづらい #TokyoNLP
2011-09-10 15:16:24a_bickyとmidoisanとitimasanとtodeskingでツイーと分類してほしい #tokyonlp
2011-09-10 15:20:18「文字列カーネルによる辞書なしツイート分類〜文字列カーネル入門」(@a_bickyさん) http://ow.ly/6qyBz #TokyoNLP
2011-09-10 15:21:45#TokyoNLP の発表資料を読んでみると面白くて分かりやすくてクオリティ高いものが多いなぁ。学会や研究会でもこういう発表スタイルはありと思う。
2011-09-10 15:33:04