- delta2323_
- 1293
- 0
- 0
- 0
とはいえ、__リージョンをパーティションの重ね合わせで表現できたとすると__、凸最適化問題に帰着できるので嬉しいということがわかった、という点は素晴らしい成果だと思いました #nipsyomi
2015-01-20 19:14:18手書きの数字を思い浮かべれば6と9のエラー率の違いは不思議でないと思う。僕の書く6と0も見分けつけにくいし #nipsyomi
2015-01-20 19:35:516は適当に書くと0と区別がつきにくくなるけど、9はならないような気がする #nipsyomi pic.twitter.com/tKEvr6CBmD
2015-01-20 19:40:35MNISTのひどい手書きデータについては、僕のブログ参照 #nipsyomi hamukazu.com/2014/08/15/dig…
2015-01-20 19:43:12半教師あり学習をNNで解く問題、M1は通常のVariational Autoencoder M2はラベルのCategorical分布を導入している。しかしラベルありのデータで識別モデルの尤度が入らないのでヒューリスティック的に損失関数を作る #nipsyomi
2015-01-20 19:53:54theorem1・2:generalization errorの話。有効事前分布の導出はないと思うんだが・・・ #nipsyomi
2015-01-20 19:59:032以外は僕でも読めた。2は0か2で迷ったから計算機なら当てられるかも。 “@hamukazu: MNISTのひどい手書きデータについては、僕のブログ参照 #nipsyomi hamukazu.com/2014/08/15/dig…”
2015-01-20 19:59:26Logistic Regressionで疎なパラメータを得るために0に出来る部分を早い段階で0にしたい。L1正則化やKKT条件から0に潰す方法がある。KKT条件を緩和した条件で潰す方法を提案。条件は解析的に計算可。間違って0に潰さないという意味でsafe #nipsyomi
2015-01-20 20:20:07購買履歴と文書情報から文書推薦する問題。Poisson FactorizationとCollaborative topic regressionを組み合わせる手法 #nipsyomi
2015-01-20 20:31:03ポアソン分布を使う嬉しさ:long tailが使える、implicit feedback(アイテムを消費したとしないヒューリスティックなしに使える)、素なデータに高速計算可 #nipsyomi
2015-01-20 20:35:50文書生成は通常のLDAで最後のword countにポアソン分布を利用。そこには入らないuserの好みをガンマ分布とポアソン分布を用いて生成 #nipsyomi
2015-01-20 20:42:27#nipsyomi おつかれさまでした。僕の紹介は声枯れてて聞き苦しかったと思いますが、ご清聴いただいてありがとうございました。
2015-01-20 21:19:24参加してきました / NIPS2014読み会 connpass.com/event/10568/ #nipsyomi
2015-01-20 21:23:18NIPS2015読み会で発表しました slideshare.net/Quasi_quant201… … #nipsyomi
2015-01-20 22:06:02