2015/05/30 CV勉強会@関東「有名論文読み会」ツイートまとめ
「DってD言語かと思った」「よろしい、ならば実装だ」今日はぽろぽろと名言が出てくる。 #cvsaisentan
2015-05-30 15:49:06.@sakanazensenさんが、趣味で実装したselective searchのPython実装 github.com/belltailjp/sel… #cvsaisentan
2015-05-30 15:50:12僕は気軽にD進進めるのは良くないと思っているが、@sakanazensenさんだけは別だ。#cvsaisentan
2015-05-30 15:51:18@ketsumedo_yarou @hokkun_cv @takmin ありがとうございます。現在、参加者は8名(除く ketsumedoです)
2015-05-30 16:11:48続いて発表は、 @peisuke さんの発表で、タイトルは "Learning to forget: Continual prediction with LSTM" です。初参加初発表です。 #cvsaisentan
2015-05-30 16:12:41@miyabiarts そういえば誰かさんの発表もききたいなー(じー)
2015-05-30 16:15:31@kantocv RNNのループを解いてやればBack Probagationで学習できるが、末端で誤差が消失/発散してしまう問題。#cvsaisentan
2015-05-30 16:25:05質問:背景(2/2)の図をどう改良して、Short Long Term Memory の図になったのでしょうか?答え:記憶部分のフィードバックの重みを常に1に固定するように修正した。 #cvsaisentan
2015-05-30 16:27:09質問:「好ましい」「好ましくない」は具体的にどういう状況を示すのか?回答:覚えたくないデータ、noisyな状況、覚えないほうが精度があがるような状況があった場合に使う。それは学習できる。 #cvsaisentan
2015-05-30 16:30:27「昨日引越して、先週子供が生まれて、風呂で論文読んでたら論文落っことして」大変だ。。。
2015-05-30 16:34:44ooo(BPと言ったら british petroleumな私)
2015-05-30 16:40:05要はLSTMって、入力、出力、Recurrent層を学習でON/OFFさせるNNって理解でOK? #cvsaisentan
2015-05-30 16:42:10質問:Recurrent 層はどこの層に突っ込むんでしょうか?自由なのか、一般的なのがあるのか。答え:基本的には自由です。#cvsaisentan
2015-05-30 16:49:42