知識処理論第5回

東京大学理学部情報科学科夏学期の知識処理論講義まとめ
0

線形重回帰モデルの変数選択

RidgeとLasso

ネクタイ @carbon_twelve

制約条件の形がRidgeでは円、Lassoでは菱形 #知識処理論

2012-05-14 10:41:57
ネクタイ @carbon_twelve

Ridgeでは最小二乗推定量から(残差的に)最も近い制約条件上の点がS(β)を最小化する #知識処理論

2012-05-14 10:47:07
ネクタイ @carbon_twelve

Lassoでは菱形のとんがっているところで推定量が出てくるので、何かしらの説明変数の係数がちょうど0になる #知識処理論

2012-05-14 10:48:39
ネクタイ @carbon_twelve

Lassoではモデルの推定 = モデルの評価 #知識処理論

2012-05-14 10:49:04

簡単な数値実験

ネクタイ @carbon_twelve

300個のパラメータを推定してみると、本物と同じぐらいの大きさのパラメータがたくさんでてくる #知識処理論

2012-05-14 10:52:51
古材 @zaikozai

例によって図が非常にわかりやすい授業 #知識処理論

2012-05-14 10:58:28
ネクタイ @carbon_twelve

λを変化させたときにBICが最も小さくなる点では5個の変数だけが残った #知識処理論

2012-05-14 10:59:21

ベイズ型モデル評価基準

ネクタイ @carbon_twelve

データが与えられた時のモデルの事後確率p(M_k | D)を最大化する #知識処理論

2012-05-14 11:02:18
XENO @xenophobia__

p(D | M_k) = ∫p(D, β_k | M_k)dβ_k = ∫p(D | β_k, M_k)p(β_k | M_k)dβ_k #知識処理論

2012-05-14 11:10:16

Ridge推定量再考

ネクタイ @carbon_twelve

Ridge推定量のX^TXという行列は分散共分散行列のn倍 #知識処理論

2012-05-14 11:20:22

ケチの原理

Elastic net

ネクタイ @carbon_twelve

S = 残差平方和 + Lassoのペナルティ項 + Ridgeのペナルティ項 #知識処理論

2012-05-14 11:34:08