第4回 #TokyoNLP

自然言語処理勉強会 http://atnd.org/events/11990
3
前へ 1 ・・ 3 4 6 次へ
Koichi Hamada @hamadakoichi

時間あたりのイベント数ではなく、イベント間隔に注目する。より迅速にイベント抽出できる。 #TokyoNLP

2011-01-22 15:10:11
close_yutori @kimukou2628

#TokyoNLP シンプルな方法) 1)1日ごとに区切る=>次の日にならないと集計できない>< =>Twitter数の数を考える 2)イベントの範囲に注目 <=2連続でイベントが起きたらそれはバースト(Burst)? //ノイズ問題

2011-01-22 15:10:58
close_yutori @kimukou2628

#TokyoNLP 1)イベント検出・・異常値の検出(地震計の揺れ検出) 正規分布を使ってそれっぽく計算 2)時系列ストリームからのイベント検出・・(TL、Blog、ニュース記事、センサ値)からイベント検出 =>時間とともに遣ってくるデータ

2011-01-22 15:15:17
Koichi Hamada @hamadakoichi

Burst Detection。オートマトン。「通常状態」と「話題の中心にいる状態(Burst State)」。 #TokyoNLP

2011-01-22 15:17:09
close_yutori @kimukou2628

#TokyoNLP バースト状態・・通常の何倍もの頻度で起きる BurstDetection=流行チェック・・ノイズの問題が解決していない ステート遷移: Statable=>Burst / Burst=>Statable の遷移に制限を設ける(時間間隔で)

2011-01-22 15:21:15
さいころ @ts_3156

このハッシュタグが面白いです。 #TokyoNLP

2011-01-22 15:22:23
close_yutori @kimukou2628

#TokyoNLP 正規化項×状態遷移確率×積×各時点での状態:q(状態シーケンス)t(時間間隔のシーケンス) で有る確率

2011-01-22 15:24:10
Koichi Hamada @hamadakoichi

各時点でのイベント発生状況が Burst State と Stable State のどちらの確率分布に従うかで推定。 #TokyoNLP

2011-01-22 15:24:59
Koichi Hamada @hamadakoichi

ノイズ低減は、Burst State と Stable State 間の遷移にペナルティを与え行う。 #TokyoNLP

2011-01-22 15:26:14
ゆき @flano_yuki

オンラインアルゴリズム,ストリームアルゴリズムなお話で楽しい. #tokyoNLP

2011-01-22 15:26:23
暮夜満足 @mansuku

#TokyoNLP こういう係数は季節性の変数持たせておき楽にやっちゃいたいけど、みんな教育させていく方向で攻めるナァwww

2011-01-22 15:36:15
Yoh Okuno @yoh_okuno

どっかで見たことがあると思ったら @beatinaniwa さんのyazztterの発表だ。 http://j.mp/guA7nr #TokyoNLP

2011-01-22 15:44:35
Yoh Okuno @yoh_okuno

次は @tkngさん。Confidence Weightedでランク学習を実装してみた #TokyoNLP

2011-01-22 16:04:33
Koichi Hamada @hamadakoichi

「Confidence Weighted を Learning to Rank に適用してみた」 ( @tkng さん) #TokyoNLP

2011-01-22 16:10:53
close_yutori @kimukou2628

#TokyoNLP ページランクの話) Yahoo Search、MS Search から論文が出ている。 <Googleは情報露出が少ない? ■自然言語/ランク学習 ・高次元/低次元 ・スパース/デンス

2011-01-22 16:11:31
KUBOTA Yuji @sugarlife

ランク学習として次を紹介:RankingSVM / RankBoost / ListNet / Sofia-ML Sofia-MLはここhttp://code.google.com/p/sofia-ml/ #TokyoNLP

2011-01-22 16:14:19
takesako @takesako

TF・IDFより精度のいい情報検索アルゴリズム「BM25」のPerlモジュール #TokyoNLP http://d.hatena.ne.jp/download_takeshi/20091206/1260130230

2011-01-22 16:15:43
close_yutori @kimukou2628

#TokyoNLP ランク学習の評価指標) ・NDCG・・上位何件とるか<普通は10件ぐらい ・いいサイトは高くしたい ・良くないサイトは低くしたい

2011-01-22 16:16:21
Koichi Hamada @hamadakoichi

Learning to Rank: RankingSVM, RankBoost, ListNet, Sofia-ML #TokyoNLP

2011-01-22 16:16:53
takesako @takesako

Confidence WeightedをLearning to Rank(ランク学習?)に適用してみた by @tkngさん発表中 #TokyoNLP → PFI岡野原さんとNLP2011で発表するみたい http://atnd.org/events/11990

2011-01-22 16:18:27
close_yutori @kimukou2628

#TokyoNLP ■Bigpartite Learning ・学習データが短時間で簡単に作れる =>自然言語でも学習コーパスを作るのが大変 ■PairWise ・データはペア ■ListWise ・データはリスト型 <=学習データ作るのが難しい

2011-01-22 16:19:15
close_yutori @kimukou2628

#TokyoNLP 学習の簡単さ Bipartite<PairWise<ListWise ・Bipartite・・sampleがある程度ある=>サンプルの組み合わせで実装できる

2011-01-22 16:24:36
Koichi Hamada @hamadakoichi

RankingSVM: 最も基本的。学習時間が超長い。 RankBoost: Boosting のランク学習への学習。 ListNet: 並べ替えた結果のリストから学習。ニューラルネットで学習。 #TokyoNLP

2011-01-22 16:27:13
Koichi Hamada @hamadakoichi

Large Scale Learning to Rank: 全部のペアを見なくてもランダムサンプリングで 数%ぐらいの数を見ればよい。 #TokyoNLP

2011-01-22 16:27:50
KUBOTA Yuji @sugarlife

数%を見れば良いよ!というLarge Scale Learning to Rankの論文はこちら http://www.eecs.tufts.edu/~dsculley/papers/large-scale-rank.pdf #TokyoNLP

2011-01-22 16:28:09
前へ 1 ・・ 3 4 6 次へ