A Succint N-gram Language Model - Taro Watanabe, and others. #TokyoNLP
2011-04-23 13:50:49性能への影響が少ない部分の情報を切り捨てるのはやっぱり重要なのかな…。量子化なり、頻度の少ないデータやスムージングで許容できる部分の削除をすれば軽くなるけど、「間違えることをある程度許容」する必要があるのはダイエットを考えるとやむを得ない? #tokyoNLP
2011-04-23 13:54:55最後のテクニックを使うと1.6GBくらいまで圧縮できる。1/10くらいまでちっさくできているのは結構いい線行ってるんじゃないでしょうか。 #tokyoNLP
2011-04-23 13:58:58発表始まった “@nokuno: 明日の #TokyoNLP の@tsubosaka さんの資料。 / Infer.NETを使ってLDAを実装してみた http://t.co/MrDR9eW”
2011-04-23 14:02:03tbskさんの図でいきなりpythonがでたからなんのことかと思ったらshuyoさんのだったのか #TokyoNLP
2011-04-23 14:04:51ただなんとかなくRとか最適しまくったnumpyでも似た様な書き方になりそうなんだよなぁ。 推論出来るとこが違うのかなぁ。 #TokyoNLP
2011-04-23 14:12:29@machy Rソースコードが途切れてしまったので再投稿.func1<-function(N){sapply(1:N, function(i){x<-runif(2); return(x[2]-x[1])})}; hist(func1(100000)) #TokyoNLP
2011-04-23 14:17:00Probabilistic Programming : 確率モデルをプログラム形式で書く。パラメータの推論はユーザが行わずに自動。これのメリットは更新時に複雑な数式を書かなくてもいい。 #tokyoNLP
2011-04-23 14:19:43簡単に作れるのがメリットだけど、現時点では最速化・最適化できないのはデメリット? (でもこれも時間で解消されるような気もしますけど…) #tokyoNLP
2011-04-23 14:22:09BBCの記事2,000本程度からランダムで1,000選んで、トピック数8で推論させてみたら、1800秒程度で完了。あんまり速くないらしい。 #tokyoNLP
2011-04-23 14:27:30