- tomoaki_teshima
- 8118
- 0
- 11
- 10
KLダイバージェンスを最適化するために、勾配法を使いたいんだけど、その偏微分を計算するとあの永遠に続きそうな式になるという認識でいいのだろうか #cvsaisentan
2014-05-25 16:27:36@kantocv 「KL情報量を最小化するのと等しい」って言い切っちゃってるけれど、そういうものなんですか?という議論 #静寂 #cvsaisentan
2014-05-25 16:30:52うなぎさんの参考文献からRBMについてわかりやすそうな記事を発見 rishida.hatenablog.com/entry/2014/03/… #cvsaisentan
2014-05-25 16:53:49@kantocv 5分休憩です。 #cvsaisentan
2014-05-25 16:59:28基本的には入力画像と出力画像を一致させるような画像を生成するネットワークを作っている点ではオートエンコーダの一層とRBMが同じ役割になってて、異なる点はRBMが生成モデル故に確率で考えられるという点なんかな? #cvsaisentan
2014-05-25 17:00:515人目
最後に@takmin さんの発表。資料はこちら。slideshare.net/takmin/deeplea… #cvsaisentan
2014-05-25 17:07:01@kantocv ぼちぼち5人目 @takmin さんの発表が始まります #cvsaisentan
2014-05-25 17:07:06@kantocv 俺も自己紹介すればよかったなー。 #cvsaisentan
2014-05-25 17:07:49@kantocv 宣伝込みの自己紹介。 2014 年に学位取得、おめでとうございます。 #cvsaisentan
2014-05-25 17:08:554.3 Deep Belief Network - 6 終わりに @takmin slideshare.net/takmin/deeplea… #cvsaisentan #deeplearning #computervision
2014-05-25 17:09:13@kantocv こんなネットワークです。一番上の層が RBM です。 #cvsaisentan
2014-05-25 17:10:00@kantocv これ以外は有向グラフになっていて、1個上の層が観測されると、1個下の層が条件付き独立になります。 #cvsaisentan
2014-05-25 17:10:56@kantocv まず観測データを入れて、下の層から順に推論する。 上から下を推論するのだが、下から上を推論する方法は? #cvsaisentan
2014-05-25 17:13:30