- kimukou2628
- 3569
- 0
- 5
- 0
「きれいなジャイアンのカカカカ☆カーネル法入門-C++」by @sleepy_yoshi さんの発表.始まりましたー #tokyonlp
2011-09-10 13:08:33#TokyoNLP カーネル法の話) ・線型モデル=>きれいに分類できない場合が=>高次元なレベルでの非線形モデル 非線形モデルの実現法) A)非線形:多層ニューラルネット B)カーネル法を使う
2011-09-10 13:17:25あれ,線形性と大域的最適解保証って関係あるんだっけ?非線形でも大域的最適解が保証される問題はいくらでもあると思うけど… #tokyoNLP
2011-09-10 13:17:35#TokyoNLP カーネル関数の種類) 閉じた形で計算できる物:多項式カーネル、ガウスカーネル 再帰で:文字列カーネル 特殊:Semantic similarity kernel
2011-09-10 13:22:13RT @nokuno: 「きれいなジャイアンのカカカカ☆カーネル法入門-C++」by @sleepy_yoshi さんの発表.始まりましたー #tokyonlp
2011-09-10 13:25:18#TokyoNLP 効率的に計算できること=カーネル法の意義。 シグモイドカーネル パーセプトロン・・重みを変更することにより スケーリングすると1に持って行く事が出来る カーネル法・・αを学習する方法 <パーセプトロンと組み合わせると重み=αになる
2011-09-10 13:30:05C++だったら関数ポインタではなく関数オブジェクトを使うことで関数ポインタ呼び出しのオーバーヘッドを削減できる気がします. @sleepy_yoshi #tokyoNLP
2011-09-10 13:34:21#TokyoNLP カーネル行列) ポイント:サポートベクターのラベルとカーネル関数の出力しか使っていない(生データ点そのもの不要) カーネルキャッシュ) ・一部のデータをキャッシュしておく<データn乗の計算が困難な場合
2011-09-10 13:37:26#TokyoNLP オンライン学習+カーネル法) 問題点: 損失を生むサンプルの重みを増やしてしまう=>サポートベクタが増えてしまう <=サポートべく多数に上限を(Budget法
2011-09-10 13:39:05Semantic Similarity kernelの論文本体を発見しました.WWW2006かな. #tokyoNLP http://j.mp/nEmLx6
2011-09-10 13:44:38Semantic Similarity kernelはTwitter見たいな短いテキストに対してどうするかの一手法。要はそのテキストを検索エンジンに投げて、その結果の上位何件かを取ってきて処理するらしい。 #tokyonlp
2011-09-10 13:48:10#TokyoNLP k-Nearest Neighbor ユークリッド距離が最小である事例のラベルで予測 xで展開=>写像する
2011-09-10 13:49:33#TokyoNLP カーネル計算コストが高い=>無理して使わなくても良いのでは?のお話 多項式カーネル=>展開する =>特定の式の内積式 であることが解るようになる <参考:線形識別器でカーネルトリックを使う方法
2011-09-10 13:52:52