ICML2013読み会まとめ
@kisa12012氏 "Large-Scale Learning with Less RAM via Randomization" 「皆さんSGD実装したことありますよね、それならこの省メモリ化使えますよ!」http://t.co/mqw1NJL1Hc #icmlyomi
2013-07-09 19:39:07特徴量を作る部分についてはセカンドがkddの論文でmapreduceで並列化できると述べてます #icmlyomi http://t.co/ZPZQ1jb3zU
2013-07-09 20:05:22@Quasi_quant2010さん"Topic Discovery through Data Dependent and Random Projections" トピックモデルで文書量が十分にあるとき…? http://t.co/LES48ta2VI #icmlyomi
2013-07-09 20:33:06@tabe2314氏"Fast Image Tagging" この論文は面白かったですね〜問題設定もうまいしさいご解析的に解けちゃうのも素晴らしい。個人的ベストペーパーに近いです。 http://t.co/zau66SZB74 #icmlyomi
2013-07-09 20:40:50@kisa12012 @beam2d 単にそんな感じがしますね、元タグ集合では互いには共起しないけど、共起するものと共起するものとも共起するようになる、みたいな。 #icmlyomi
2013-07-09 20:52:02仮にlakeとpondが似たシーンで使われる=共通の共起セットを持つなら、stackingによって「lake -> (lakeと共起する単語セット) -> pond」 ってことじゃないかな? #icmlyomi
2013-07-09 20:54:57確率的に処理したら「そうじゃない画像」のアノテーションがグダグダになっちゃう気がするんだけど、全体的なパフォーマンスとしては最大化できるからいいんだろうな #icmlyomi
2013-07-09 20:55:59新しいタスクに対して教師データが手に入るという設定 = lifelong learning, 新しいタスクに対して教師データが十分に手に入るとは限らない(ので過去の類似するようなタスクのデータを使おう) = 転移学習? #icmlyomi
2013-07-09 21:08:45Lifelong Learning の論文、マルチタスク学習とかは違いますが、NIPS 2005 の The Forgetron: A Kernel-Based Perceptron on a Fixed Budget. みたいな「忘れる」話を思い出しました。#icmlyomi
2013-07-09 21:28:22@sleepy_yoshiさん"Distributed training of Large-scale Logistic models" 超多クラスなロジスティック回帰の分散学習…すごく…ICMLぽいです… http://t.co/P2laji2gpY #icmlyomi
2013-07-09 21:38:33