- shima__shima
- 7742
- 0
- 4
- 2
今日からICML2015に向けて出発.国際会議 35回目,ICML1回目,フランス 3回目,リール 1回目.日本からたくさん来てそうな気配.
2015-07-05 04:34:21First day of #ICML2015 in Lille, France. #reactive pic.twitter.com/pPaRmtDtkM
2015-07-06 15:58:47ICML2015のスポンサー icml.cc/2015/?page_id=… すごくおおくてびっくり.常連+ヨーロッパ勢って感じかな?日本からはパナソニック.
2015-07-06 16:12:08@hiroara #fatml ワークショップでお話する時間をいただけた fatml.org/details.html#s… のでノコノコやってきました.また報告させていただきます.
2015-07-06 17:33:32日本企業はスポンサーになってても求人ブース出してないことがおおいけど,パナソニックのシリコンバレーの研究所が求人ブースだしてるな
2015-07-06 17:42:37#icml2015 The @LilleGrandPalai is ready to welcome you pic.twitter.com/VWVsRv2da0
2015-07-06 18:26:37通常のQ学習(モデル無し)だと、全状態・全アクションをみないとダメだけど、DQNはQ関数を「推定」することで、より少ないサンプル数で戦う。つまり、似た状態に対する学習を同時にやってる感じなのか。
2015-07-06 18:37:56@tmaehara 飽和モデルでなくて,パラメトリックなモデルを使うのは,90年代のTD-Gammonとかの3層ニューロでもあったかと.DQNの方が複雑ですが
2015-07-06 18:41:25@shima__shima 飽和モデルって言うんですね。確かにこの設定ならパラメトリックにしたくなります(というか、しないと学習に必要なサンプル数が悲惨なことになりそう)。
2015-07-06 18:47:19ちゃんと知らなかったが,distributional semantics (分布意味論),frame semantics(フレーム意味論),model theoretic semantics (モデル理論的意味論) とあるらしい.
2015-07-06 18:59:33分布意味論は,有名になったskip-gramモデルで,文脈と語の意味が対応するという考えに基づくもの.学習でやりやすいが,全体を一つにまとめてしまう無理がある.
2015-07-06 18:59:42