ちゃば
@Tea_Server
前向き漸次的選択法 今持っているものに合いそうなもの(残差を小さくする)を持ってくる デメリット ・局所最適しかできない メリット ・速い ・過学習しにくい #カステラ本
2016-06-14 20:34:52
ちゃば
@Tea_Server
前向き段階的回帰 1. データと予測変数を中心化する 2. 予測変数βは0で初期化 3. データ残差との相関の大きい変数を選択して残差との単回帰係数をβに加算 4. 残差と相関を持つ変数がなくなるまで3を繰り返す 高次元のケースでは都合がよい #カステラ本
2016-06-14 20:39:22
ちゃば
@Tea_Server
10分割交差確認 1. データを10個に分けて9個を訓練、1個を検証に使用する 2. 1を全てのグループに対して行う #カステラ本
2016-06-14 20:41:23
siero
@siero5335
RおじさんがRidge回帰とかLassoについてRでやる時用のスライドあげてくれてますね: 5分でわかるかもしれないglmnet by @teramonagi slideshare.net/teramonagi/5gl… #カステラ本
2016-06-14 20:46:28
ちゃば
@Tea_Server
特異値分解による表現(3.45) 以降V^t V=V V^t = I, D^t U^t UD = D^2が成立するとする #カステラ本
2016-06-14 20:58:40
ちゃば
@Tea_Server
リッジ回帰は分散のより小さい方向(図3.9の左上から右下に向かう方の線)の係数を抑えて分散が大きくなる可能性を抑える #カステラ本
2016-06-14 21:07:38
まつけん
@Kenmatsu4
リッジ回帰はパラメーターの事前分布が正規分布とみなせるんですね、なるほど。確か、Lassoはパラメータのー事前分布をラプラス分布とすると見た気がしますね。 #カステラ本
2016-06-14 21:10:26