NIPS2014読み会

2015年1月20日に開催したNIPS2014読み会のまとめです
0
motivic @motivic_

この方法だと潜在変数が入ったベイジアンネットワークには使えなそう #nipsyomi

2015-01-20 19:13:29
NaOHaq(苛性ソーダ) @NaOHaq

とはいえ、__リージョンをパーティションの重ね合わせで表現できたとすると__、凸最適化問題に帰着できるので嬉しいということがわかった、という点は素晴らしい成果だと思いました #nipsyomi

2015-01-20 19:14:18
motivic @motivic_

計算時間で勝負するなら少なくともconstraint-basedとの比較がほしい #nipsyomi

2015-01-20 19:15:00
K.Ogaki @Hi_king

手書きなら6と9は対称でないってことかな。9は縦棒が上に突き出ることおおいし #nipsyomi

2015-01-20 19:34:33
motivic @motivic_

手書きの数字を思い浮かべれば6と9のエラー率の違いは不思議でないと思う。僕の書く6と0も見分けつけにくいし #nipsyomi

2015-01-20 19:35:51
すずどら @sz_dr

必死になってランプ損失関数ggってる #nipsyomi

2015-01-20 19:36:51
NaOHaq(苛性ソーダ) @NaOHaq

6は適当に書くと0と区別がつきにくくなるけど、9はならないような気がする #nipsyomi pic.twitter.com/tKEvr6CBmD

2015-01-20 19:40:35
拡大
加藤公一(はむかず) @hamukazu

MNISTのひどい手書きデータについては、僕のブログ参照 #nipsyomi hamukazu.com/2014/08/15/dig…

2015-01-20 19:43:12
Kenta Oono @delta2323_

半教師あり学習をNNで解く問題、M1は通常のVariational Autoencoder M2はラベルのCategorical分布を導入している。しかしラベルありのデータで識別モデルの尤度が入らないのでヒューリスティック的に損失関数を作る #nipsyomi

2015-01-20 19:53:54
年利6% @Quasi_quant2010

theorem1・2:generalization errorの話。有効事前分布の導出はないと思うんだが・・・ #nipsyomi

2015-01-20 19:59:03
ナシェモン@キャリアコンサルタント @nassyemon

2以外は僕でも読めた。2は0か2で迷ったから計算機なら当てられるかも。 “@hamukazu: MNISTのひどい手書きデータについては、僕のブログ参照 #nipsyomi hamukazu.com/2014/08/15/dig…

2015-01-20 19:59:26
K.Ogaki @Hi_king

生成NNと推論NNをでっかいauto encoderとみなして最適化か。。生成結果面白いのよいな #nipsyomi

2015-01-20 20:00:52
Kenta Oono @delta2323_

Logistic Regressionで疎なパラメータを得るために0に出来る部分を早い段階で0にしたい。L1正則化やKKT条件から0に潰す方法がある。KKT条件を緩和した条件で潰す方法を提案。条件は解析的に計算可。間違って0に潰さないという意味でsafe #nipsyomi

2015-01-20 20:20:07
すずどら @sz_dr

判定段階でめっちゃ重いことしてると残念感はあるけど…? #nipsyomi

2015-01-20 20:20:49
NaOHaq(苛性ソーダ) @NaOHaq

なんか全体的にDNNと凸解析が無双してる感じ #nipsyomi

2015-01-20 20:22:14
Kenta Oono @delta2323_

購買履歴と文書情報から文書推薦する問題。Poisson FactorizationとCollaborative topic regressionを組み合わせる手法 #nipsyomi

2015-01-20 20:31:03
Kenta Oono @delta2323_

ポアソン分布を使う嬉しさ:long tailが使える、implicit feedback(アイテムを消費したとしないヒューリスティックなしに使える)、素なデータに高速計算可 #nipsyomi

2015-01-20 20:35:50
Kenta Oono @delta2323_

文書生成は通常のLDAで最後のword countにポアソン分布を利用。そこには入らないuserの好みをガンマ分布とポアソン分布を用いて生成 #nipsyomi

2015-01-20 20:42:27
ビーム | Seiya Tokui @beam2d

#nipsyomi おつかれさまでした。僕の紹介は声枯れてて聞き苦しかったと思いますが、ご清聴いただいてありがとうございました。

2015-01-20 21:19:24
猫型ロボット製作所ののちゃん家 @robomixcom

勉強になりました.そして、もっと勉強しなきゃと思いました.ありがとうございました! #nipsyomi

2015-01-20 21:44:59