2018/02/04コンピュータビジョン勉強会@関東「強化学習論文読み会」

2018年2月4日に開催した第44回コンピュータビジョン勉強会@関東のツイートまとめです。
2
前へ 1 ・・ 9 10 次へ
yu4u @yu4u

動画vs動画での顔認証、直感的には同じような顔の角度のペアをなるべく異なる角度となるようサンプリングして比較するようなアプローチが一番良さそうと思うのだけど #cvsaisentan

2018-02-04 16:52:20
t2kasa @__t2kasa__

2つの顔画像シーケンスX_AとX_Bの距離は、各シーケンスでtemporal representationを計算し、その内に選択したフレームの平均をとってから距離を求める。この選択するか否かの係数a_iがAttentionと主張している。 #cvsaisentan

2018-02-04 16:52:54
あるふ @alfredplpl

Attention、だんだんわかってきた気がする。ハイパーパラメータのパラメータ(つまり、ハイパーハイパーパラメータ)を選ぶ基準をどのように決めるかという問題の解き方の総称な気がする。 #cvsaisentan 参考文献: slideshare.net/mobile/yutakik…

2018-02-04 16:53:46
ROS・Cプラ弱者 @takerfume

CVを認識系と生成系に分けるなら(門外漢が適当に分類してます) 認識系→報酬は精度にすればいいから報酬設計必要なし→強化学習 生成系→報酬がよくわからないから報酬設計必要→逆強化学習 or Imitation Learning という感じかな 後者の方がインパクト強そう。 #cvsaisentan

2018-02-04 16:56:16
あるふ @alfredplpl

認識系がDiscriminator、生成系がGeneraterとして、それを双方学習できるのがGenerative Adversarial Network。みたいな感じで、それを強化学習と組み合わせる時代の流れを感じた。 #cvsaisentan

2018-02-04 16:58:53
お好み焼き @jellied_unagi

CVのカンファレンスは定量評価で強いのはもう大前提で,とにかく(CV分野にとって)新しい問題か新しい技術が必要で,RLとかIRLはその辺の要求をいい感じに答えてくれるので流行っているのではないかという気がする #cvsaisentan

2018-02-04 17:00:26
H. NOMATA @hiromichinomata

Videoに写った人の顔認証の精度をあげる論文。良さそうな画像をピックアップして精度をあげる。強化学習on時系列onCNN。画像から直接Attentionを計算しており、強化学習でクオリティーの低いものを取り除いて精度が上がるような組み合わせを求める。 #cvsaisentan slideshare.net/takanoriogata1…

2018-02-04 17:03:05
あるふ @alfredplpl

マルチエージェントIRLとかできるのかな。複雑系の基本ルールをデータ・ドリブンに解き明かしてくれそう。 #cvsaisentan

2018-02-04 17:07:07
ROS・Cプラ弱者 @takerfume

最近読んで面白かった論文です。ICLR2018のTop2% openreview.net/forum?id=HktK4… Twitterのトピック上のツイートの分布を状態にして、トピックのバズり方の遷移の報酬を推定し遷移予測をする 大人数のアクションの塊が集団としてみたときもMDPに従っていて集団の従う報酬が分かるのが面白いです #cvsaisentan twitter.com/alfredplpl/sta…

2018-02-04 17:09:08
t2kasa @__t2kasa__

顔の向きは分かりそうだから向きが似ている向きの画像を比較するようにすればいいんじゃないか、というのは同意。向きを考慮して元から類似していそうな画像を比較した方が平均をとるよりもやりやすそう。 #cvsaisentan

2018-02-04 17:09:23
Keisuke Fujimoto @peisuke

すごい研究ぽいっけどここまで聞いた感じ完璧な枕 #cvsaisentan

2018-02-04 17:15:49
Keisuke Fujimoto @peisuke

あいつの発表全然間違っているぜ、と言われないかドキドキしている #cvsaisentan

2018-02-04 17:16:49
ymats @ymats_

強化学習を用いた文生成手法の基本論文? #cvsaisentan

2018-02-04 17:17:52
ymats @ymats_

GoogleNetで画像から特徴抽出して (Encoder)、LSTM生成モデルを後段に結合して(Decoder)文生成するのが通常の手法。Encoderを文特徴抽出にすれば翻訳、要約にもなる。 #cvsaisentan

2018-02-04 17:21:03
t2kasa @__t2kasa__

Decoder側でRNNを使うという点は共通でEncoder側が画像ならキャプション、文なら機械翻訳や文章要約のタスクになる。 #cvsaisentan

2018-02-04 17:24:08
yu4u @yu4u

キャプション生成でBLUEを直接最適化してやりたいというのは分かるけど、そもそもBLUEで評価するのが正しいのかという… #cvsaisentan

2018-02-04 17:24:43
ROS・Cプラ弱者 @takerfume

IRLとIL使って人間の作ったキャプションからもっといい評価指標自体を生成できないかな。それをもとにRLしたらもっといいキャプションでそう しかし、その評価指標がいいというのはどうやって証明すればいいんだろう? #cvsaisentan

2018-02-04 17:25:39
ymats @ymats_

評価指標を報酬として、強化学習すれば直接的に評価指標を最適化するRNNが学習できる #cvsaisentan

2018-02-04 17:28:17
Minagawa Takuya @takmin

@kantocv 今までのCV系RL論文の中で一番RL使用の必然性がある論文な気がする。 #cvsaisentan

2018-02-04 17:28:19
あるふ @alfredplpl

REINFORCE、方策ベースの中で一番わかりやすいし、実装もしやすい。ただし、手法として古いので性能はうーんって感じかもしれない。 #cvsaisentan

2018-02-04 17:29:13
t2kasa @__t2kasa__

学習時の損失と評価指標は異なる→評価指標を直接損失にできないか?→評価指標の勾配を求められない→評価指標を報酬にする強化学習だ! この解釈で合ってますかね… #cvsaisentan

2018-02-04 17:29:19
Keisuke Fujimoto @peisuke

なるほど。これ、確かにさっき発表したやつの前段の手法だった。 #cvsaisentan

2018-02-04 17:29:54
Minagawa Takuya @takmin

今回@alfredplpl さんや@losnuevetoros さんの発表はもっと前に持ってきた方が良かったな。#cvsaisentan

2018-02-04 17:32:25
前へ 1 ・・ 9 10 次へ