2012/12/16 CV勉強会@関東「ECCV2012読み会」
もしかして:開発者の頭皮が・・・ sparse:〈人口などが〉まばらな,希薄な;〈頭髪などが〉薄い;〈動植物が〉散在する #cvsaisentan
2012-12-16 13:26:37L0ノルムをつかうの!?珍しい気が。あれ?通常L0でしたっけ?L2をよく聞くきがするんですが、木の精か・・・ #cvsaisentan
2012-12-16 13:28:39L2ノルムはわかるとして、 L0 ノルムはわからないな・・・・ #cvsaisentan
2012-12-16 13:28:49Orthogonal Matching Pursuit algorithm で解く。どんなアルゴリズムだ? #cvsaisentan
2012-12-16 13:29:02別にsparseじゃなくても線形結合ならいいんじゃない,と思ったけど,Dの要素数を大きくしても線形結合を求めるための計算量が大きくならないっていうのがsparseにする利点なのかなあ. #cvsaisentan
2012-12-16 13:29:28おお、車輪だけ赤くなってる! #cvsaisentan
2012-12-16 13:30:06特異値分解で復元した応答より断然良いな。たしかに。 #cvsaisentan
2012-12-16 13:30:42質問:20基底は、Dictionaryが20基底?(答え:辞書の数が20(Kが20)) #cvsaisentan
2012-12-16 13:31:23@miyabiarts あ、オンラインになった。 #cvsaisentan
2012-12-16 13:32:14修正:Kはもっと大きい数でεが20基底のはず。 #cvsaisentan
2012-12-16 13:32:35と、SVDで比較する際に辻褄が合わない話になってしまう- #cvsaisentan
2012-12-16 13:32:54このページの図がとても分り易く説明されている。 #cvsaisentan
2012-12-16 13:35:27カテゴリ増やすと湧き出し誤りとか増えないのかな #cvsaisentan ( #cvsaisentan live at http://t.co/iK3wzrUT)
2012-12-16 13:36:47Sparselet Model の計算量は2項の和になる。 #cvsaisentan
2012-12-16 13:37:00カテゴリが植えても計算量が上昇するのは非ゼロの期待値だけなので、緩やかに上昇する。 #cvsaisentan
2012-12-16 13:37:31カスケード式に計算することで、見込みの無い候補をガスガス除外していける。 #cvsaisentan
2012-12-16 13:38:48sparselet filterを空間的に敷き詰めたものをpart filterにする,であってるんだろうか. #cvsaisentan
2012-12-16 13:41:00基底の数が20で充分。元のデータセットをよく知らないので、縦軸の適合率から充分なのか、サチッているのかわからないな… ( #cvsaisentan live at http://t.co/iK3wzrUT)
2012-12-16 13:45:23性能が、オリジナルのDPMの性能を超えることではなく、新しいカテゴリが増えても対応できるというはなし。 #cvsaisentan
2012-12-16 13:45:24あとは、ほぼ同等の性能を示しながらも計算量が少なくてすむよ、って話かな。 #cvsaisentan
2012-12-16 13:45:42