詳細に@conditionalさん、@iwiwiさん、@nakajijiさん、@nokunoさん、@tsubosakaさんのご発表のタイトルを追加しました | 新年会 + データ構造と情報検索と言語処理勉強会 #DSIRNLP 5 http://t.co/I3D7NS11Y5
2014-01-08 11:21:51新年会 + データ構造と情報検索と言語処理勉強会 #DSIRNLP 5 - 参加者は何か発表してネ スペシャル http://t.co/R2P7PPVd25 1月11日、スマートニュース。「以下の条件に"一つも合致しない方"は、(中略)発表資料を作ってきて下さい」って、斬新。。。
2014-01-08 22:14:15DSIRNLPの5分枠の発表資料アップしといた。渋谷へ急ごう…! / “All the News that’s Fit to Read: A Study of Social Annotations for ...” http://t.co/R1W5hiXyrz
2014-01-11 11:30:43#DSIRNLP 始まり。@tsubosaka さんの Contextual Bandit 入門。普通のバンディット問題と違って、各 arm の報酬が ... http://t.co/KMDnQyTVlu
2014-01-11 13:14:50ただのBanditアルゴリズムでは事前条件を考慮に入れていない、そこでLinUCBアルゴリズム、リッジ回帰を用いてなんたらかんたら #DSIRNLP
2014-01-11 13:15:20LinUCB、コンテキスト情報を特徴ベクトル表現にして回帰分析(リッジ回帰)に利用する、ということなん… #DSIRNLP
2014-01-11 13:17:45連続メモリ領域に対するアクセス順変えて、spillしないように調整して、キャッシュミス率が15%くらい減る。そんなに減るのか・・。ハンドチューニングにも使えるね #DSIRNLP
2014-01-11 13:34:04#DSIRNLP 2つ目は@sumi_1554 さんのお話。修論のコンパイラ最適化の話と、現在興味がある機械学習の最適化のお話。コンパイラの静的な最適化に使えないか、蟻コロニー最適化に着目している。ただ、何を教師データにするんだろう?
2014-01-11 13:41:14ぱっと思うのは、疎ベクトルと密ベクトルの内積とるときにレジスタに乗るだけ疎ベクトルをロードしてから内積とると速くなるかな・・ #DSIRNLP
2014-01-11 13:41:27#DSIRNLP の3つ目は @nokuno さんによる Introduction to Tree Grammar Compression。予測入力で辞書を Trie に格納しているのだが、メモリ的に厳しいので自然言語の特殊性を活かして文法圧縮する。IMワークショップの話と同一。
2014-01-11 13:46:07#DSIRNLP 昨年末の入力メソッドワークショップのログもおいときますね。(^_^)つhttp://t.co/OfwdJRw1Vd #IM2013
2014-01-11 13:50:21ほー、succinct な trie よりもサイズを小さくできるんね、TreeRePair。興味ある! #DSIRNLP
2014-01-11 13:45:07Tree Grammar Compressionは簡潔データ構造の1/7のサイズでデータを保持する。簡潔とは何だったのか。 #DSIRNLP
2014-01-11 13:46:02nokunoさん-Introduction to Tree Grammar Compression、iwiwi先生-Cache-Obliviousデータ構造入門、yataさん-カラムストアと整列、が個人的見どころ//DSIRNLP#5 http://t.co/pbi8dyPplu
2014-01-11 13:51:40