第26回 名古屋CV/PRML勉強会のツイートまとめ

中部大藤吉研の企画のもとRandom Forest祭りということで2013年11月16日に開催した名古屋CV勉強会のツイートをまとめました.
0
Hironobu Fujiyoshi @hf149

今週末(11/16)の #nagoyacv では、Classification Forest, Regression Forest, Hough Forest, Density Forest, Semi-Supervised Forest, Fernsについて、学生が話します。

2013-11-12 18:12:41
闇の魚 @sakanazensen

「ICCV2008でのチュートリアルで,分類やクラスタリングのみならず回帰,カーネル密度推定,半教師付き学習などに用いれることがわかった」 #nagoyacv

2013-11-16 13:35:13
闇の魚 @sakanazensen

最初はclassification forestについて #nagoyacv

2013-11-16 13:36:06
闇の魚 @sakanazensen

スライドはslideshareで公開されるそうです. #nagoyacv

2013-11-16 13:36:22
闇の魚 @sakanazensen

Random Forestで物体認識&セグメンテーション #nagoyacv

2013-11-16 13:38:43
闇の魚 @sakanazensen

メリット:速い.次元が高くても効率的な学習が可能.ノイズに強い. #nagoyacv

2013-11-16 13:39:44
闇の魚 @sakanazensen

十分な学習データが必要.パラメータがちょっと多い #nagoyacv

2013-11-16 13:40:17
Hironobu Fujiyoshi @hf149

今日の名古屋CVPRML勉強会は、「Random Forests祭り」で藤吉研が担当です。以下のスライドをアップしました。#nagoyacv http://t.co/TfV1lw8tsn

2013-11-16 13:40:18
闇の魚 @sakanazensen

@fararrow9 いつもありがとうございます! #nagoyacv

2013-11-16 13:40:40
闇の魚 @sakanazensen

(主観的に)必要な学習データの量:SVM<Boosting<RFs #nagoyacv

2013-11-16 13:41:30
Hironobu Fujiyoshi @hf149

まずは、Classification Forestについて、三品君(M1)が発表中。#nagoyacv

2013-11-16 13:42:43
闇の魚 @sakanazensen

分岐関数はすごく簡単な識別関数.しきい値との大小関係や特徴量中の着目してる基底の大小関係,とか. #nagoyacv

2013-11-16 13:44:37
闇の魚 @sakanazensen

情報利得が高い識別関数を選ぶ=なるべくうまく二分する関数を選ぶ(という理解でOKかな? #nagoyacv

2013-11-16 13:48:06
闇の魚 @sakanazensen

「カテゴリが偏るような分岐関数」と言っているのは「クラスを分離する性能が高い分岐性能」ということか #nagoyacv

2013-11-16 13:50:57
Hironobu Fujiyoshi @hf149

@sakanazensen 分岐後の子ノードのエントロピーが小さくなるように、すなわち, 分岐後にあまりカテゴリーが混ざらないような識別関数を選びます。#nagoyacv

2013-11-16 13:51:57
闇の魚 @sakanazensen

クラスごとの出現頻度が異なる場合は重みによって正規化する.これはc-SVMとかでもやるやつや! #nagoyacv

2013-11-16 13:53:37
闇の魚 @sakanazensen

分岐ノード数が次元数の平方根でいいことに関する理論的な根拠,興味ある #nagoyacv

2013-11-16 13:57:56
闇の魚 @sakanazensen

「ひとつひとつの分岐関数をどれだけ賢くするか,について頑張ってみても大した効果がない」 #nagoyacv

2013-11-16 14:00:41
残りを読む(81)

コメント

コメントがまだありません。感想を最初に伝えてみませんか?