- tomoaki_teshima
- 8111
- 0
- 11
- 10
@kantocv まず下の2層から学習する。プレトレーニングですね。 #cvsaisentan
2014-05-25 17:16:20@kantocv ここでボルツマシンのTLが! #cvsaisentan
2014-05-25 17:17:56@kantocv まとめるとこんなイメージwww #cvsaisentan
2014-05-25 17:18:22@kantocv DBM と DBN の違い。 DBM は下の層が無向グラフだが、DBNは有向グラフになる。 #cvsaisentan
2014-05-25 17:19:01@kantocv DBM はネットワーク全体の同時確率を1つの式で表せる #cvsaisentan
2014-05-25 17:20:09@kantocv 平均場近似とはなんぞや #cvsaisentan
2014-05-25 17:21:35@kantocv こういうネットワーク構造のときに平均場近似はよろしくない近似というのは知られてる。 #cvsaisentan
2014-05-25 17:23:10@kantocv qとpを近い形にするのがKL ダイバージェンス最小化 #cvsaisentan
2014-05-25 17:24:25@kantocv 上下の層からの影響があるので、パラメータを2倍する。これは上下の層で2倍。実際、3倍の方がイイとかの議論もある。(59)式。 #cvsaisentan
2014-05-25 17:29:07@kantocv 畳み込みをして、更に h をかけることでプーリングを実現する。h の範囲内の1つだけ1にして、ほかはすべて0 #cvsaisentan
2014-05-25 17:32:50@kantocv プレトレーニングが良いのか?特徴量のスパース表現がきいているのか?議論をするところですな。 #cvsaisentan
2014-05-25 17:36:02@kantocv Q:DBN や DBM は、使う側からして、どっちが良いかとかありますか?A:私も知りたいです。 #cvsaisentan
2014-05-25 17:36:22@kantocv DBM に fine tuning が入ってるので、なんとなく性能が良さそうだし、 DBN の方が実装の方が良さそうだなーという感想 #cvsaisentan
2014-05-25 17:36:50@kantocv Q:DBN を fine tuning する方法はない?A:教科書を見る鍵では無い。 #cvsaisentan
2014-05-25 17:37:11先ほどスライドにも載せましたが,slideshare.net/yurieoka37/ss-… この方のスライドがディープラーニングの実装について詳しいです #cvsaisentan
2014-05-25 17:37:14@kantocv Q:hが、1つだけ1になる、というのは、何故1つだけ1になる? A:hは1か0しか取らないので、67式の制約で最大で1個しか1にしかならない #cvsaisentan
2014-05-25 17:38:24@kantocv Q:DBN の名前の由来は? A:有向グラフだから推論が伝播してるから?かなぁ? #cvsaisentan
2014-05-25 17:39:04@kantocv 独立と言いながら、上から下に伝播してたり、なんでそんなことしてるのかなぁ、と疑問を感じたりします。 #cvsaisentan
2014-05-25 17:39:40@kantocv Q:具体的なタスク、画像認識や画像分類の話に当てはめて説明してもらえますか。 CNN まではなにしてるかはわかるのですが、その先はあまりしっくりこない #cvsaisentan
2014-05-25 17:40:23@kantocv A:例えばVが画像で、hが隠れ層で色々入っている #cvsaisentan
2014-05-25 17:41:25