数理手法IV第10回

0
amylase伯爵 @pepsin_amylase

逐次学習とも言う。1個ずつデータを処理するのでしょうメモリだったり、データが時系列で来るような場合(ストリーム)に適する。 #数理手法IV

2012-06-13 17:06:27
amylase伯爵 @pepsin_amylase

仮説(識別関数)は学習のたびに更新され、その仮説を使って新しいデータを分類。バッチ学習ではデータをすべて舐めてよりよい仮説を探していた。 #数理手法IV

2012-06-13 17:11:08
amylase伯爵 @pepsin_amylase

オンライン学習特有の損失関数に Regret がある。バッチ学習をした時の損失関数との比較。 #数理手法IV

2012-06-13 17:13:17
amylase伯爵 @pepsin_amylase

神代の時代の分類器:パーセプトロン #数理手法IV

2012-06-13 17:15:27
amylase伯爵 @pepsin_amylase

神代の時代とはいえど今でも価値がある。 #数理手法IV

2012-06-13 17:16:45
amylase伯爵 @pepsin_amylase

Novikoff の定理:分離超平面が存在するとき、パーセプトロンは必ず有限回で収束する。 #数理手法IV

2012-06-13 17:26:13
ネクタイ @carbon_twelve

あんなのに論文通ったらいいねえ #数理手法IV

2012-06-13 17:34:28
amylase伯爵 @pepsin_amylase

今の国立大学の先生はだいたい戦後生まれなのでは。 #数理手法IV

2012-06-13 17:43:23
amylase伯爵 @pepsin_amylase

journal の論文のほうが勉強しやすいが conference より2年ほど遅れている。 #数理手法IV

2012-06-13 17:45:14
amylase伯爵 @pepsin_amylase

ソフトマージンでは損失関数を0にできないのでスラック変数で緩和する。 #数理手法IV

2012-06-13 17:52:01
amylase伯爵 @pepsin_amylase

先生が言う「難しくない」は絶対に信じていません。 #数理手法IV

2012-06-13 17:56:55
経済動物 @liang4673

先生のケータイがガラケーだった、少し意外 #数理手法IV

2012-06-13 18:01:24
amylase伯爵 @pepsin_amylase

R とか C とか出てきて高校物理思い出した←理解放棄 #数理手法IV

2012-06-13 18:10:43
amylase伯爵 @pepsin_amylase

重みベクトルを確率変数にする。 #数理手法IV

2012-06-13 18:14:32
ネクタイ @carbon_twelve

あれから2年後 ― Confidence Weighted Algorithm ― #数理手法IV

2012-06-13 18:14:33
ネクタイ @carbon_twelve

「大変時間が掛かるのでレポート課題にします」 #数理手法IV

2012-06-13 18:15:32
amylase伯爵 @pepsin_amylase

「授業でやるのは大変時間がかかるのでレポート課題にします」 #数理手法IV

2012-06-13 18:15:49