ICML2013読み会まとめ

機械学習トップ会議ICML2013の論文を読む会を開きました。 ICML公式:http://icml.cc/2013/ Partake:http://partake.in/events/0ae21389-aa2a-42c1-a247-f93582127216 ブログ:http://research.preferred.jp/2013/07/icml/
0
Shohei Hido 比戸将平 @sla

@kisa12012氏 "Large-Scale Learning with Less RAM via Randomization" 「皆さんSGD実装したことありますよね、それならこの省メモリ化使えますよ!」http://t.co/mqw1NJL1Hc #icmlyomi

2013-07-09 19:39:07
Muddy Dixon @muddydixon

予測をL1Cacheで処理出来れば、検索広告やメール検索とかが高速に! #icmlyomi

2013-07-09 19:40:01
ビーム | Seiya Tokui @beam2d

SGDのステップ幅を解像度だと思って、ビット数を調節する #icmlyomi

2013-07-09 19:42:29
Shohei Hido 比戸将平 @sla

ここで岡野原本の宣伝きた、優秀な元ピーFIバイトさんである!! #icmlyomi

2013-07-09 19:55:10
Tsubosaka @tsubosaka

特徴量を作る部分についてはセカンドがkddの論文でmapreduceで並列化できると述べてます #icmlyomi http://t.co/ZPZQ1jb3zU

2013-07-09 20:05:22
Shohei Hido 比戸将平 @sla

@Quasi_quant2010さん"Topic Discovery through Data Dependent and Random Projections" トピックモデルで文書量が十分にあるとき…? http://t.co/LES48ta2VI #icmlyomi

2013-07-09 20:33:06
Shohei Hido 比戸将平 @sla

@tabe2314氏"Fast Image Tagging" この論文は面白かったですね〜問題設定もうまいしさいご解析的に解けちゃうのも素晴らしい。個人的ベストペーパーに近いです。 http://t.co/zau66SZB74 #icmlyomi

2013-07-09 20:40:50
Junpei Komiyama @jkomiyama_

時間がないからか割とすらすら進んでいる #icmlyomi

2013-07-09 20:43:46
ビーム | Seiya Tokui @beam2d

stackするのは、ラベル伝播を2周3周させるのと同じノリなのかな #icmlyomi

2013-07-09 20:50:47
Shohei Hido 比戸将平 @sla

@kisa12012 @beam2d 単にそんな感じがしますね、元タグ集合では互いには共起しないけど、共起するものと共起するものとも共起するようになる、みたいな。 #icmlyomi

2013-07-09 20:52:02
Muddy Dixon @muddydixon

仮にlakeとpondが似たシーンで使われる=共通の共起セットを持つなら、stackingによって「lake -> (lakeと共起する単語セット) -> pond」 ってことじゃないかな? #icmlyomi

2013-07-09 20:54:57
Muddy Dixon @muddydixon

確率的に処理したら「そうじゃない画像」のアノテーションがグダグダになっちゃう気がするんだけど、全体的なパフォーマンスとしては最大化できるからいいんだろうな #icmlyomi

2013-07-09 20:55:59
Akira T. @akira_dev

Lifelong Learning、色んな運用を切り替えて使う宇宙機異常診断の文脈で睨んでます #icmlyomi

2013-07-09 21:07:32
uchiumi kei @uchumik

新しいタスクに対して教師データが手に入るという設定 = lifelong learning, 新しいタスクに対して教師データが十分に手に入るとは限らない(ので過去の類似するようなタスクのデータを使おう) = 転移学習? #icmlyomi

2013-07-09 21:08:45
ビーム | Seiya Tokui @beam2d

MTLをタスク方向にオンライン化した、と思えばこの拡張の仕方はしっくりくるか #icmlyomi

2013-07-09 21:22:16
Muddy Dixon @muddydixon

一度の休憩のみでほんとに3時間ぶっ通しで論文を読み続けてる #icmlyomi

2013-07-09 21:25:56
uchiumi kei @uchumik

使用する素性が固定だから同じ素性じゃ対応できないような全く別のタスクは難しそう。 #icmlyomi

2013-07-09 21:26:10
Mamoru B Komachi @mamoruk

Lifelong Learning の論文、マルチタスク学習とかは違いますが、NIPS 2005 の The Forgetron: A Kernel-Based Perceptron on a Fixed Budget. みたいな「忘れる」話を思い出しました。#icmlyomi

2013-07-09 21:28:22
Koji Matsuda @conditional

logsumexpの並列版は欲しい人多そう #icmlyomi

2013-07-09 21:35:00
Shohei Hido 比戸将平 @sla

@sleepy_yoshiさん"Distributed training of Large-scale Logistic models" 超多クラスなロジスティック回帰の分散学習…すごく…ICMLぽいです… http://t.co/P2laji2gpY #icmlyomi

2013-07-09 21:38:33