第3回 パターン認識と機械学習 復習レーン #PRMLrevenge #03
- hamadakoichi
- 4804
- 0
- 0
- 0
第3回 「パターン認識と機械学習(PRML) 復習レーン」のツイートまとめ、資料リンク、メモ。 http://bit.ly/dtESgd #PRMLrevenge
2010-07-03 21:01:28例えば出力が時系列データだとマルコフ連鎖を仮定して云々とかありそうと思ったんだけど時間切れで質問できず。 RT @nokuno PRML 3.1.5 は出力変数同士が独立であることを暗黙のうちに仮定しているような気がする。。。 #PRMLrevenge
2010-07-03 21:33:33そんなときは8章のグラフィカルモデルですね RT @nokuno: 例えば出力が時系列データだとマルコフ連鎖を仮定して云々とかありそうと思ったんだけど時間切れで質問できず。 RT @nokuno PRML 3.1.5 は出力変数同士が独立であることを… #PRMLrevenge
2010-07-03 21:50:22RT @hamadakoichi: 第3回 「パターン認識と機械学習(PRML) 復習レーン」のツイートまとめ、資料リンク、メモ。 http://bit.ly/dtESgd #PRMLrevenge
2010-07-03 22:05:16うーむ、最後の方で次元がどうたらという議論をしていた時に言いたかったことがあったけど、ぼーっとしてしまって言えなかった。反省せねば。 #PRMLrevenge
2010-07-03 22:05:44今日は発表かせめて予習をしないと勉強にならないことを再確認した。3章は実は本レーンに出ていたので懐かしくもあった。 #PRMLrevenge
2010-07-03 22:06:09RT @hamadakoichi: 第3回 「パターン認識と機械学習(PRML) 復習レーン」のツイートまとめ、資料リンク、メモ。 http://bit.ly/dtESgd #PRMLrevenge
2010-07-03 22:29:50後で読まねば RT @hamadakoichi: 第3回 「パターン認識と機械学習(PRML) 復習レーン」のツイートまとめ、資料リンク、メモ。 http://bit.ly/dtESgd #PRMLrevenge
2010-07-03 22:48:40L1正則化は,ラプラス分布ですよね.ラプラス分布は,指数分布族.「共役」って必ず相手がいる概念なので,共役かどうかは尤度関数による…という理解で正しい? RT @nokuno そういえばL1正則化をベイズ的に解釈したときの事前分布は共役じゃなかったような #PRMLrevenge
2010-07-03 23:32:38今日の発表資料、ブログにも上げておきました。http://d.hatena.ne.jp/takmin/20100703/1278167479 #PRMLrevenge
2010-07-03 23:54:03RT @naoya_t: "The Elements of Statistical Learning" http://www-stat.stanford.edu/~tibs/ElemStatLearn/ #PRMLrevenge
2010-07-04 00:13:56.@takmin さんのSlideshareも追加しました。 RT @hamadakoichi 第3回 「パターン認識と機械学習(PRML) 復習レーン」のツイートまとめ、資料リンク、メモ。 http://bit.ly/dtESgd #PRMLrevenge
2010-07-04 01:03:40