veni, vidi, visaの元ネタは,ラテン語のveni, vidi, vici(来た見た勝った)で,カエサルが勝利を伝えた時の言葉です.で,ラテン語の教科書には,完了形の動詞の変化で必ず出てくる文です...全部,一人称現在完了系のはず. #emnlpyomi
2015-10-24 16:18:17後,素性はNLP業界オンリーの用語なので外で使うと怒られますが,特徴量は,別にNLP業界内で作っても怒られないはず... #emnlpyomi
2015-10-24 16:19:17今日の資料です~ #emnlpyomi / [Yang+ 2015] Efficient Methods for Incorporating Knowledge into Topic Models slideshare.net/shuyo/sparse-c…
2015-10-24 16:43:23本日の資料です A Neural Attention Model for Sentence Summarization [Rush+2015] slideshare.net/yutakikuchi927… @SlideShareさんから #emnlpyomi
2015-10-24 17:08:32ユーモアのある文かどうかを判定する分類器をつくる学習。ユーモアのある文にありそうな4つの特徴を使って分類、word2vecで出きた特徴を入れると更に上がるが、これは負例とドメインが違うからな気もする #emnlpyomi
2015-10-24 17:18:30大規模なトピック数のLDAをやるために、must-linkやcannot-linkの制約を入れる話。評価が微妙で、他の制約を入れる系の手法が、オリジナルのLDAより結果が悪くなっているんであれば、評価指標がダメということになるんでは・・ #emnlpyomi
2015-10-24 17:20:00短文要約でアテンション張る話。直前に生成した数単語の埋め込みyと、入力文の各単語の別の埋め込みxを、パラメタ行列Pに対して、yPxで結合した値を各入力単語に対するアテンションとして、それで重み付けたベクトルで次の単語を予測。Chainerで作れそうだね! #emnlpyomi
2015-10-24 17:35:57皆さまお疲れ様でした。EMNLP2015読み会、無事終了いたしました。参加された皆さん、お手伝いいただいた皆さん、ありがとうございました!
2015-10-24 20:37:50参加してきました / EMNLP2015読み会 connpass.com/event/20393/ #emnlpyomi
2015-10-24 20:41:06EMNLP2015読み会-Long Short-Term Memory Neural Networks for Chinese Word Segmentation speakerdeck.com/rikima/emnlp20… #emnlpyomi
2015-10-24 21:22:45@_kobacky 最近この界隈で話題になってることが何となくわかった。個人的にはキーワードを拾うのが精一杯だったけど、テーマの全体的な雰囲気がわかるのは学会参加の良い所だと思うし、EMNLP読み会もそういうのに近い価値を提供していると感じた。
2015-10-25 10:20:38昨日の #emnlpyomi ,深層学習わからなかったけどLSTMとRNNだけは 「これ #juliatokyo でみたことあるやつや」 となるなどした(理解はしてないのでわからない)
2015-10-25 11:37:19@chezou あ,トレンドはEmbeddingsでした (EMNLPのEは.Embeddingsだみたいな話がありました) / 若者頑張ります😇
2015-10-25 11:40:22わからん部分=このl_{i}(\theta)の部分.マージン最大化であれば、正解ラベル系列であっても2位以下のラベル系列スコアとの差が¥delta(y, y_{2位以下)以下ならl_i > 0でないのか?と #emnlpyomi pic.twitter.com/f134U9Yy5z
2015-10-25 11:49:13