第4回 #TokyoNLP

自然言語処理勉強会 http://atnd.org/events/11990
3
前へ 1 ・・ 4 5 次へ
KUBOTA Yuji @sugarlife

これを実装したのがSofia-ML > Large Scale Learning to Rank。 そして話はConfidence Weightedへ。 #TokyoNLP

2011-01-22 16:33:19
close_yutori @kimukou2628

#TokyoNLP Pairwise:文章の並び替え・スコアで Confidence Weighted ) ・更新式は γi 正しい:マイナス値=>max:0=>無更新 ・学習が速い=>ループ1回 ・ノイズに弱い=>AROW,NAROWという対策アルゴリズム提案

2011-01-22 16:33:58
Koichi Hamada @hamadakoichi

"Confidence-Weighted Linear Classification", Dredze, Crammer, Pereira, 2008 (PDF) : http://bit.ly/ehOhwR #TokyoNLP

2011-01-22 16:40:26
暮夜満足 @mansuku

#TokyoNLP ランクの発表結果スゴい勉強になった

2011-01-22 16:41:23
close_yutori @kimukou2628

#TokyoNLP Learnig to Rank) ・feature実装が大変 Confidence Weighted ) ・パラメータの変更率がすごい<ノイズデータによる ・伝統的な手法も要考慮

2011-01-22 16:42:00
Toshinori Sato @overlast

みんなゲホゲホ咳してるかと思ったがそんなでもない。たまに鼻水をすする音がする程度。しかし15人くらい暗黙的なキャンセルをしてる人がいる。。。 #TokyoNLP

2011-01-22 17:11:29
close_yutori @kimukou2628

#TokyoNLP 統計的機械翻訳入門 by @nokuno さん 始まってます

2011-01-22 17:12:02
Koichi Hamada @hamadakoichi

「統計的機械翻訳入門」 ( @nokuno さん) #TokyoNLP

2011-01-22 17:12:16
takesako @takesako

統計的機械翻訳入門 by 新マックユーザ @nokuno さんによる発表中 #TokyoNLP http://atnd.org/events/11990

2011-01-22 17:15:27
close_yutori @kimukou2628

#TokyoNLP Noisy-Channel Model) ・言語モデル(文の滑らかさ)と翻訳モデル(対訳コーパスから学習:意味の近さ)に分解 翻訳モデル) ・単語ベース ・フレーズベース ・文章ベース

2011-01-22 17:15:30
Hiroyuki Inoue @inohiro

自然言語処理勉強会@東京 面白そうだなあ(いまやってるらしい #TokyoNLP

2011-01-22 17:18:09
shuyo @shuyo

統計機械翻訳でよく出てくる e と f は、なんか勝手に English と French と思い込んでた。そうか、foreign か~w #tokyonlp

2011-01-22 17:19:17
Koichi Hamada @hamadakoichi

"Statistical Machine Translation": 4. Word-Based Models, IBM Models: http://amzn.to/hV0uau #TokyoNLP

2011-01-22 17:20:25
close_yutori @kimukou2628

#TokyoNLP 単語アライメント) ・単語の対応づけ(英独対比) das=the has=house ・並び替え ・単語数の増加(1:1とは限らない)

2011-01-22 17:20:52
Yasutaka SHINDOH  @y_shindoh

統計的機械翻訳は筑波大学の山本先生の資料で勉強した記憶がある。 かなり昔に。 http://www.nlp.mibel.cs.tsukuba.ac.jp/pdf/SMT2008.pdf #TokyoNLP

2011-01-22 17:21:26
close_yutori @kimukou2628

#TokyoNLP EMアルゴリズム) ・不完全データにより分散された状態を収束させる ・初期化・・全てのアライメントは等確率 ・modル学習 la は the と共起する ○共起・・ある単語がある文章中に出た時その文章中に別の限られた単語が頻繁に出現すること

2011-01-22 17:29:52
TOKUNAGA Hiroyuki @tkng

#TokyoNLP 発表終わりました。むしろ発表者の方が勉強させていただきました。ありがとうございます!

2011-01-22 17:40:07
KUBOTA Yuji @sugarlife

私はいつかのATRさんの言語処理学会チュートリアルで。統計的機械翻訳ことはじめ:http://bit.ly/MAaRJ #TokyoNLP QT: @y_shindoh : 統計的機械翻訳は筑波大学の山本先生の資料で勉強した記憶がある。 かなり昔に。

2011-01-22 17:40:41
close_yutori @kimukou2628

#TokyoNLP 日英対訳コーパスの例) ・NICTの日英対訳コーパスで実験 ・GIZA++をつかってアライメント ・セグメーテンションのミスが多い ・フランス語に翻訳する場合は 日本語=>英語=>フランス 英語が対訳コーパスが一番多い(英語を中間言語に)

2011-01-22 17:56:16
takesako @takesako

Discovering Concepts from Word Cooccurrences with a Relational Model 読む by @suzuvie_reさんの発表 #TokyoNLP http://atnd.org/events/11990

2011-01-22 18:17:53
Yoh Okuno @yoh_okuno

次は @suzuvie_re さん。Frequency based IRMの話し。 #TokyoNLP

2011-01-22 18:18:16
close_yutori @kimukou2628

#TokyoNLP ・IRM・・あるかないかでモデルを判定 ・FIRM・・回数をモデルに組み込む =>続けて何回出たかをIRMのモデルに共起の回数を条件として追加するイメージ ・SAM・・単語と単語のペア=>FIRMでは復元できる と論文には書いている

2011-01-22 18:25:17
前へ 1 ・・ 4 5 次へ