機械学習TL 〜教師ありと教師なしの違いとか,ロジスティック回帰の教え方とか〜
![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
@kashi_pong でも人間は変なガイドされない限り、とりあえず教師なし学習してる気がします。特に子供が色とか質感を識別しはじめる段階はそう。
2012-01-29 23:14:32![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
教師なし学習は学問全般に近いのに対して教師あり学習は受験勉強に近い。もちろん、試験日が迫ってるのに抽象的なことばかりやってたら受験の鬼どもには負ける点も学習と誤差の話に一致する。
2012-01-29 23:15:50![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
スライド作成進まず。この多忙期を乗り切るためには、とにかく体調崩さないことだな。ってことで寝よう。
2012-01-30 00:43:45![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
@kashi_pong 次ラベル候補の絞込みみたいなものなんで、パープレキシティは下げる方向かと思います。単なるtypoかもしれませんが。。。
2012-01-30 21:56:52![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
直接ターゲットに合わせて学習できないところが教師「なし」の部分なのだろう。 つまり、教師なし学習を特徴づけるのは、潜在変数であって、潜在変数のない学習は教師なし学習にはなり得ない。
2012-01-30 21:58:49![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
世に言うマルチラベル学習の嫌がらせみたいな問題をやっている。でも次元上がると手法の差がはっきり出るので比較はしやすい。
2012-01-30 21:59:25![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
しかしこの「学習」って単語あんま好きじゃないな。。。確率論とか計量経済の人には learn parameters と言っても通じない。普通にestimate parametersでいい
2012-01-30 22:01:09![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
@kashi_pong もともとはAIの人が人間の学習行動を真似るの意味合いを含めてlearnと命名したと聞きました。
2012-01-30 22:03:26![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
@kashi_pong @rikija perplexityはどちらかというと○○学習というよりは、生成モデルの評価ですね。生成性能みたいなものなので。実際には分岐数を表現しています。
2012-01-30 22:05:24![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
@rikija 学習にしろGAにしろ、他の様々なものとのつながりが分かっている現在においては、何でわざわざそんなん言うの、て思うけど、まさにそこに至る過程の上ではそうとしか言えないんだろうね
2012-01-30 22:08:08![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
@kashi_pong @rikija perplexityは、テストデータのnegative loglikelihoodのようなものなので汎化性能のようなものを表しているようなものです
2012-01-30 22:19:33![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
自然な流れで対数線形モデルに入るのは至難の技。いきなり式を出しても不親切。最大エントロピーから入っても、遠回りすぎてわかりにくい。う〜ん・・・。いっそ触れないでおこうか。
2012-01-30 23:11:44![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
え、僕は「このあとの @shima__shima 先生のご講演で詳しい説明があると思いますが」という必殺呪文を多用しようかと:-)
2012-01-31 00:19:46![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
みんな教師つき/なし学習の話に反応しすぎ。 あそこで僕が言いたかったのは、教師つき学習のドグマに囚われてる人ってテストで点は取れるけど人生の大事なことは何もわかってない人と似てるんじゃないか、というアンチテーゼだったのだが・・・
2012-01-31 22:06:09![](https://tgfile.tg-static.com/static/web/img/placeholder.gif)
P(y|x)を教師なし推定するのに、ベイズのおっさん呼んで、事前分布と生成モデル入れて評価という手続きは至極まっとうであり、このあたりは「教師なし」の人たちのやり方に同意できる
2012-01-31 22:19:42