EMNLP2015読み会

EMNLP2015読み会の発言をまとめました。会場提供 @yag_ays さんに感謝!
1
Jiro Nishitoba @jnishi

これ、日本語でできるんだろうか #emnlpyomi

2015-10-24 16:15:57
イルカ人間 @niam

veni, vidi, visaの元ネタは,ラテン語のveni, vidi, vici(来た見た勝った)で,カエサルが勝利を伝えた時の言葉です.で,ラテン語の教科書には,完了形の動詞の変化で必ず出てくる文です...全部,一人称現在完了系のはず. #emnlpyomi

2015-10-24 16:18:17
イルカ人間 @niam

後,素性はNLP業界オンリーの用語なので外で使うと怒られますが,特徴量は,別にNLP業界内で作っても怒られないはず... #emnlpyomi

2015-10-24 16:19:17
shuyo @shuyo

今日の資料です~ #emnlpyomi / [Yang+ 2015] Efficient Methods for Incorporating Knowledge into Topic Models slideshare.net/shuyo/sparse-c…

2015-10-24 16:43:23
Yuta Kikuchi @kiyukuta

本日の資料です A Neural Attention Model for Sentence Summarization [Rush+2015] slideshare.net/yutakikuchi927… @SlideShareさんから #emnlpyomi

2015-10-24 17:08:32
rikima @rikima

Coherence [Mimno + 2011] が指標 なんかどれもようわからん。。。

2015-10-24 17:11:45
Yuya Unno @unnonouno

ユーモアのある文かどうかを判定する分類器をつくる学習。ユーモアのある文にありそうな4つの特徴を使って分類、word2vecで出きた特徴を入れると更に上がるが、これは負例とドメインが違うからな気もする #emnlpyomi

2015-10-24 17:18:30
Yuya Unno @unnonouno

大規模なトピック数のLDAをやるために、must-linkやcannot-linkの制約を入れる話。評価が微妙で、他の制約を入れる系の手法が、オリジナルのLDAより結果が悪くなっているんであれば、評価指標がダメということになるんでは・・ #emnlpyomi

2015-10-24 17:20:00
Yuya Unno @unnonouno

短文要約でアテンション張る話。直前に生成した数単語の埋め込みyと、入力文の各単語の別の埋め込みxを、パラメタ行列Pに対して、yPxで結合した値を各入力単語に対するアテンションとして、それで重み付けたベクトルで次の単語を予測。Chainerで作れそうだね! #emnlpyomi

2015-10-24 17:35:57
やぐ @yag_ays

皆さまお疲れ様でした。EMNLP2015読み会、無事終了いたしました。参加された皆さん、お手伝いいただいた皆さん、ありがとうございました!

2015-10-24 20:37:50
rikima @rikima

EMNLP2015読み会-Long Short-Term Memory Neural Networks for Chinese Word Segmentation speakerdeck.com/rikima/emnlp20… #emnlpyomi

2015-10-24 21:22:45
コバツキー @_kobacky

@_kobacky 最近この界隈で話題になってることが何となくわかった。個人的にはキーワードを拾うのが精一杯だったけど、テーマの全体的な雰囲気がわかるのは学会参加の良い所だと思うし、EMNLP読み会もそういうのに近い価値を提供していると感じた。

2015-10-25 10:20:38
Aki Ariga @chezou

EMNLP読み会、最前線の論文を読み続けている人じゃないと厳しそうなイメージを持っていて、未だにハードル高いんだよなぁ

2015-10-25 10:21:57
KN @nzw0301

昨日の #emnlpyomi ,深層学習わからなかったけどLSTMとRNNだけは 「これ #juliatokyo でみたことあるやつや」 となるなどした(理解はしてないのでわからない)

2015-10-25 11:37:19
KN @nzw0301

@chezou あ,トレンドはEmbeddingsでした (EMNLPのEは.Embeddingsだみたいな話がありました) / 若者頑張ります😇

2015-10-25 11:40:22
rikima @rikima

わからん部分=このl_{i}(\theta)の部分.マージン最大化であれば、正解ラベル系列であっても2位以下のラベル系列スコアとの差が¥delta(y, y_{2位以下)以下ならl_i > 0でないのか?と #emnlpyomi pic.twitter.com/f134U9Yy5z

2015-10-25 11:49:13
拡大
rikima @rikima

@rikima 単純に合っていれば0で、間違っていたら l_iが損失関数であれば、上で良い。

2015-10-25 11:56:39