機械学習TL 〜教師ありと教師なしの違いとか,ロジスティック回帰の教え方とか〜

昨日の機械学習TLもまとめました.よく読むと2つの話題が混じっていますね.ロジスティック回帰の話は明日のmixi engineer seminarで聞けると思います.
14
kashi_pong @kashi_pong

教師なし学習って「当て厨の教師付きよりも心が豊か」みたいな雰囲気醸すところがカチンとくる

2012-01-29 23:13:28
自然外挿しなさい⚪ @naturalskew

@kashi_pong でも人間は変なガイドされない限り、とりあえず教師なし学習してる気がします。特に子供が色とか質感を識別しはじめる段階はそう。

2012-01-29 23:14:32
自然外挿しなさい⚪ @naturalskew

教師なし学習は学問全般に近いのに対して教師あり学習は受験勉強に近い。もちろん、試験日が迫ってるのに抽象的なことばかりやってたら受験の鬼どもには負ける点も学習と誤差の話に一致する。

2012-01-29 23:15:50
Hiroya J. Takamura @hjtakamura

スライド作成進まず。この多忙期を乗り切るためには、とにかく体調崩さないことだな。ってことで寝よう。

2012-01-30 00:43:45
kashi_pong @kashi_pong

perplexityを上げるのが目的の場合、それは教師付き学習だよね。

2012-01-30 21:51:48
自然外挿しなさい⚪ @naturalskew

@kashi_pong 次ラベル候補の絞込みみたいなものなんで、パープレキシティは下げる方向かと思います。単なるtypoかもしれませんが。。。

2012-01-30 21:56:52
kashi_pong @kashi_pong

直接ターゲットに合わせて学習できないところが教師「なし」の部分なのだろう。 つまり、教師なし学習を特徴づけるのは、潜在変数であって、潜在変数のない学習は教師なし学習にはなり得ない。

2012-01-30 21:58:49
自然外挿しなさい⚪ @naturalskew

世に言うマルチラベル学習の嫌がらせみたいな問題をやっている。でも次元上がると手法の差がはっきり出るので比較はしやすい。

2012-01-30 21:59:25
自然外挿しなさい⚪ @naturalskew

しかしこの「学習」って単語あんま好きじゃないな。。。確率論とか計量経済の人には learn parameters と言っても通じない。普通にestimate parametersでいい

2012-01-30 22:01:09
kashi_pong @kashi_pong

@rikija 「学習」はロマンチック成分入ってるから

2012-01-30 22:02:17
自然外挿しなさい⚪ @naturalskew

@kashi_pong もともとはAIの人が人間の学習行動を真似るの意味合いを含めてlearnと命名したと聞きました。

2012-01-30 22:03:26
kashi_pong @kashi_pong

個人的な理解では、GAは「ロマン付き最適化法」

2012-01-30 22:03:35
enjoy my life @issei_sato

@kashi_pong @rikija perplexityはどちらかというと○○学習というよりは、生成モデルの評価ですね。生成性能みたいなものなので。実際には分岐数を表現しています。

2012-01-30 22:05:24
enjoy my life @issei_sato

@kashi_pong @rikija モデル固定だとMCMCとVBでの比較にも用いることもありますけど。

2012-01-30 22:06:41
kashi_pong @kashi_pong

@rikija 学習にしろGAにしろ、他の様々なものとのつながりが分かっている現在においては、何でわざわざそんなん言うの、て思うけど、まさにそこに至る過程の上ではそうとしか言えないんだろうね

2012-01-30 22:08:08
enjoy my life @issei_sato

@kashi_pong @rikija perplexityは、テストデータのnegative loglikelihoodのようなものなので汎化性能のようなものを表しているようなものです

2012-01-30 22:19:33
Hiroya J. Takamura @hjtakamura

自然な流れで対数線形モデルに入るのは至難の技。いきなり式を出しても不親切。最大エントロピーから入っても、遠回りすぎてわかりにくい。う〜ん・・・。いっそ触れないでおこうか。

2012-01-30 23:11:44
Hiroya J. Takamura @hjtakamura

@shima__shima やっぱり、ダメ・・・ですよね。

2012-01-31 00:11:18
しましま @shima__shima

.@hjtakamura 先生のご講演にもありましたように,という必殺呪文が封じられてしまいます

2012-01-31 00:11:56
Hiroya J. Takamura @hjtakamura

え、僕は「このあとの @shima__shima 先生のご講演で詳しい説明があると思いますが」という必殺呪文を多用しようかと:-)

2012-01-31 00:19:46
自然外挿しなさい⚪ @naturalskew

みんな教師つき/なし学習の話に反応しすぎ。 あそこで僕が言いたかったのは、教師つき学習のドグマに囚われてる人ってテストで点は取れるけど人生の大事なことは何もわかってない人と似てるんじゃないか、というアンチテーゼだったのだが・・・

2012-01-31 22:06:09
kashi_pong @kashi_pong

P(y|x)を教師なし推定するのに、ベイズのおっさん呼んで、事前分布と生成モデル入れて評価という手続きは至極まっとうであり、このあたりは「教師なし」の人たちのやり方に同意できる

2012-01-31 22:19:42
1 ・・ 4 次へ