しましまのICML2015まとめ

しましまのICML2015の参加・聴講記録 https://icml.cc/Conferences/2015
7
しましま @shima__shima

今日からICML2015に向けて出発.国際会議 35回目,ICML1回目,フランス 3回目,リール 1回目.日本からたくさん来てそうな気配.

2015-07-05 04:34:21
@tmaehara

本日からICMLです. 11:00 NRT AF0275 / 19:07 CdG AF7229

2015-07-05 05:58:23
しましま @shima__shima

武蔵野線が遅れて、飛行機ピンチ

2015-07-05 09:58:22
しましま @shima__shima

間に合った、出発が遅れてた

2015-07-05 10:21:13
しましま @shima__shima

Lilleに着いた.業界人がいっぱいTGVに乗っていた

2015-07-06 04:21:03
しましま @shima__shima

ICML2015第1日目:チュートリアルの日

2015-07-06 19:13:10
しましま @shima__shima

ICML2015のスポンサー icml.cc/2015/?page_id=… すごくおおくてびっくり.常連+ヨーロッパ勢って感じかな?日本からはパナソニック.

2015-07-06 16:12:08
Hiromi Arai @hiroara

@shima__shima あ、fairnessですね!今度様子を教えて下さいm(_ _)m

2015-07-06 17:09:51
しましま @shima__shima

@hiroara #fatml ワークショップでお話する時間をいただけた fatml.org/details.html#s… のでノコノコやってきました.また報告させていただきます.

2015-07-06 17:33:32
しましま @shima__shima

日本企業はスポンサーになってても求人ブース出してないことがおおいけど,パナソニックのシリコンバレーの研究所が求人ブースだしてるな

2015-07-06 17:42:37
@tmaehara

deep Q learning の何が良いのかをやっと理解した。

2015-07-06 18:32:56
@tmaehara

通常のQ学習(モデル無し)だと、全状態・全アクションをみないとダメだけど、DQNはQ関数を「推定」することで、より少ないサンプル数で戦う。つまり、似た状態に対する学習を同時にやってる感じなのか。

2015-07-06 18:37:56
しましま @shima__shima

@tmaehara 飽和モデルでなくて,パラメトリックなモデルを使うのは,90年代のTD-Gammonとかの3層ニューロでもあったかと.DQNの方が複雑ですが

2015-07-06 18:41:25
@tmaehara

@shima__shima 飽和モデルって言うんですね。確かにこの設定ならパラメトリックにしたくなります(というか、しないと学習に必要なサンプル数が悲惨なことになりそう)。

2015-07-06 18:47:19
@tmaehara

これ表現がちゃんとしてたら普通にガウス核展開とかで学習すれば、十分良い性能出るんちゃうか(古い論文にありそう)

2015-07-06 18:49:38
@tmaehara

普通にチュートリアル内にあった

2015-07-06 18:55:01
しましま @shima__shima

Percy Liang さんによるNLPの自然言語の意味論.word2vec でよく耳にするようになった.

2015-07-06 18:59:21
しましま @shima__shima

ちゃんと知らなかったが,distributional semantics (分布意味論),frame semantics(フレーム意味論),model theoretic semantics (モデル理論的意味論) とあるらしい.

2015-07-06 18:59:33
しましま @shima__shima

分布意味論は,有名になったskip-gramモデルで,文脈と語の意味が対応するという考えに基づくもの.学習でやりやすいが,全体を一つにまとめてしまう無理がある.

2015-07-06 18:59:42
残りを読む(221)

コメント

コメントがまだありません。感想を最初に伝えてみませんか?