第23回 名古屋CV/PRML勉強会のツイートまとめ

第23回勉強会の講演パートまでのtweetです
1
おさかなさん @sakanazensen

判別基準に全分散,クラス内分散,クラス間分散の何を使うか? #nagoyacv

2013-05-18 13:54:31
ゆるふわUnaさん@A判定 @UnaNancyOwen

判別分析の分散には全分散,クラス内分散,クラス間分散の3つあるがどの判別基準が良いのか? #nagoyacv

2013-05-18 13:54:45
おさかなさん @sakanazensen

Partial Least Squares Regression (PLS 回帰) #nagoyacv

2013-05-18 13:55:05
Hironobu Fujiyoshi @hf149

PLS(Partial Least Square Regression)の紹介。入力変数間の相関が高いときに有効。#nagoyacv

2013-05-18 13:55:42
おさかなさん @sakanazensen

ICCV2009にてPLSで歩行者検出した例. #nagoyacv

2013-05-18 13:57:32
おさかなさん @sakanazensen

17万次元の特徴量をPLSで20次元に落としこめてしまう #nagoyacv

2013-05-18 13:58:35
おさかなさん @sakanazensen

SVMとの比較を見てみたいところ(・ω・) #nagoyacv

2013-05-18 13:59:33
Hironobu Fujiyoshi @hf149

PLSの応用例。ICCV2009論文でPedestrian Detection。#nagoyacv

2013-05-18 14:00:37
ゆるふわUnaさん@A判定 @UnaNancyOwen

もとが17万次元の特徴量を落としこむのにPCAは180次元だが,PLSは20次元とPLSの方が低次元の特徴量で判別できる.識別に特化している. #nagoyacv

2013-05-18 14:01:25
おさかなさん @sakanazensen

SVMとの比較では学習データの分布にも依存しそう.この方法だとクラス間の境界付近以外のデータも影響するわけだし(という理解であってるのかな) #nagoyacv

2013-05-18 14:02:02
おさかなさん @sakanazensen

ベイズ推定で識別するというのは,事後確率が最大となるクラスへの識別=各クラスとのマハラノビス距離の和と定数. #nagoyacv

2013-05-18 14:04:13
おさかなさん @sakanazensen

特徴空間でそのままユークリッド距離を使って推定するというのは,分布が等方性(超球状)であることを仮定したことに相当する #nagoyacv

2013-05-18 14:05:01
おさかなさん @sakanazensen

ナイーブベイズ;各基底が独立であることを仮定(かなり強引な仮定w)して,単純な式の形に落としこむ. #nagoyacv

2013-05-18 14:06:26
はる @fararrow9

今日はいつも通り僕が流しています.ネットワークの不調と新ブロードキャスターにやられていて途切れ途切れで申し訳ありません : 名古屋CV・PRML勉強会 http://t.co/IADLWxHS6Q #nagoyacv

2013-05-18 14:07:42
おさかなさん @sakanazensen

``Naive-Bayes Nearest Neighbor'';カーネル密度推定でp(x_i | C)を推定. #nagoyacv

2013-05-18 14:09:27
おさかなさん @sakanazensen

最近の研究ではそれをカーネル化 #nagoyacv

2013-05-18 14:09:43
おさかなさん @sakanazensen

続いて,パーセプトロンのお話. #nagoyacv

2013-05-18 14:10:27
おさかなさん @sakanazensen

最近は下火,とか思いきやDeepLearningが出てきて再勉強する人が多い印象 #nagoyacv

2013-05-18 14:11:23
おさかなさん @sakanazensen

小脳がパーセプトロン,大脳基底が強化学習,大脳が教師なし学習をしている,という説も #nagoyacv

2013-05-18 14:11:55
おさかなさん @sakanazensen

パーセプトロンってそういう雰囲気だったんだ! #nagoyacv

2013-05-18 14:14:00
おさかなさん @sakanazensen

SVMとよく似てるけど,どんな識別(超)平面になるかは初期値依存. #nagoyacv

2013-05-18 14:15:06
ゆるふわUnaさん@A判定 @UnaNancyOwen

パーセプトロンの学習では間違えたときは識別面を修正する.線形分離可能な場合は有限回で学習が収束する. #nagoyacv

2013-05-18 14:15:26