第5回 データ構造と情報検索と言語処理勉強会 #DSIRNLP

第5回 データ構造と情報検索と言語処理勉強会 #DSIRNLP のまとめです。追加・削除・編集などご自由に。
7
Toshinori Sato @overlast

詳細に@conditionalさん、@iwiwiさん、@nakajijiさん、@nokunoさん、@tsubosakaさんのご発表のタイトルを追加しました | 新年会 + データ構造と情報検索と言語処理勉強会 #DSIRNLP 5 http://t.co/I3D7NS11Y5

2014-01-08 11:21:51
langstat @langstat

新年会 + データ構造と情報検索と言語処理勉強会 #DSIRNLP 5 - 参加者は何か発表してネ スペシャル http://t.co/R2P7PPVd25 1月11日、スマートニュース。「以下の条件に"一つも合致しない方"は、(中略)発表資料を作ってきて下さい」って、斬新。。。

2014-01-08 22:14:15
散歩𝕏 @PENGUINANA_

DSIRNLPの5分枠の発表資料アップしといた。渋谷へ急ごう…! / “All the News that’s Fit to Read: A Study of Social Annotations for ...” http://t.co/R1W5hiXyrz

2014-01-11 11:30:43
Mamoru B Komachi @mamoruk

#DSIRNLP 始まり。@tsubosaka さんの Contextual Bandit 入門。普通のバンディット問題と違って、各 arm の報酬が ... http://t.co/KMDnQyTVlu

2014-01-11 13:14:50
くまぎ @kumagi

Contextual Banditアルゴリズムについて #DSIRNLP CTRはクリックスルーレートですな。

2014-01-11 13:11:56
くまぎ @kumagi

ただのBanditアルゴリズムでは事前条件を考慮に入れていない、そこでLinUCBアルゴリズム、リッジ回帰を用いてなんたらかんたら #DSIRNLP

2014-01-11 13:15:20
Yuya Unno @unnonouno

banditのパーソナライズな感じ #DSIRNLP

2014-01-11 13:16:22
KOMIYA Atsushi @komiya_atsushi

LinUCB、コンテキスト情報を特徴ベクトル表現にして回帰分析(リッジ回帰)に利用する、ということなん… #DSIRNLP

2014-01-11 13:17:45
Mei++ @m00y00m

DSIRNLPって録画がないの

2014-01-11 13:18:59
くまぎ @kumagi

LinUCBはあんまり特徴の次元数を増やすと、逆行列を算出する部分があるのでパフォーマンス的に危ういかもとのこと? #DSIRNLP

2014-01-11 13:22:47
saiias @sa__i

DSIRNLPがやってるのか,参加したかった

2014-01-11 13:24:00
KOMIYA Atsushi @komiya_atsushi

ほー、元論文だといったん特徴ベクトルを次元圧縮している、のだと。 #DSIRNLP

2014-01-11 13:24:57
○○() @ksomemo

#DSIRNLP おもしろそう。まとめに期待

2014-01-11 13:27:09
Yuya Unno @unnonouno

連続メモリ領域に対するアクセス順変えて、spillしないように調整して、キャッシュミス率が15%くらい減る。そんなに減るのか・・。ハンドチューニングにも使えるね #DSIRNLP

2014-01-11 13:34:04
@tmaehara

今日DSIRNLPだったのか.前回参加して楽しかったから次も参加しようと思っていたけれど,スケジュールしら知らなかった(アカン)

2014-01-11 13:39:16
Mamoru B Komachi @mamoruk

#DSIRNLP 2つ目は@sumi_1554 さんのお話。修論のコンパイラ最適化の話と、現在興味がある機械学習の最適化のお話。コンパイラの静的な最適化に使えないか、蟻コロニー最適化に着目している。ただ、何を教師データにするんだろう?

2014-01-11 13:41:14
Yuya Unno @unnonouno

ぱっと思うのは、疎ベクトルと密ベクトルの内積とるときにレジスタに乗るだけ疎ベクトルをロードしてから内積とると速くなるかな・・ #DSIRNLP

2014-01-11 13:41:27
Mamoru B Komachi @mamoruk

#DSIRNLP の3つ目は @nokuno さんによる Introduction to Tree Grammar Compression予測入力で辞書を Trie に格納しているのだが、メモリ的に厳しいので自然言語の特殊性を活かして文法圧縮する。IMワークショップの話と同一。

2014-01-11 13:46:07
Mamoru B Komachi @mamoruk

#DSIRNLP 昨年末の入力メソッドワークショップのログもおいときますね。(^_^)つhttp://t.co/OfwdJRw1Vd #IM2013

2014-01-11 13:50:21
Yuya Unno @unnonouno

文法圧縮・・・だと・・・ #DSIRNLP

2014-01-11 13:44:23
KOMIYA Atsushi @komiya_atsushi

ほー、succinct な trie よりもサイズを小さくできるんね、TreeRePair。興味ある! #DSIRNLP

2014-01-11 13:45:07
くまぎ @kumagi

Tree Grammar Compressionは簡潔データ構造の1/7のサイズでデータを保持する。簡潔とは何だったのか。 #DSIRNLP

2014-01-11 13:46:02
Takeshi Yamamuro @maropu

nokunoさん-Introduction to Tree Grammar Compression、iwiwi先生-Cache-Obliviousデータ構造入門、yataさん-カラムストアと整列、が個人的見どころ//DSIRNLP#5 http://t.co/pbi8dyPplu

2014-01-11 13:51:40
Takeshi Yamamuro @maropu

文法圧縮のmarumaru先生の質問が期待される #DSIRNLP

2014-01-11 13:53:38
1 ・・ 5 次へ