2011年9月5日

一般物体認識に関する諸々

をまとめてみました.話は発散したまま終わっています.付け足したい方はどうぞ.
3
みやびあーつ @miyabiarts

特定の車を認識するのが特定物体認識。様々な画像から車というカテゴリを認識するのが一般物体認識。では、車種を認識するのは特定・一般のどっちでしょう。という議論もままある。特定ジャンル認識とか用語作るのが一番なんだろうか。#cvsaisentan

2011-09-04 14:23:59
みやびあーつ @miyabiarts

Spatial Pyramid Matchingもやりすぎると、特定物体の幾何マッチングに近くなってくるので、どこまでが特定でどこまでが一般なのかの判断が難しいですね。人間であっても。 ( #cvsaisentan live at http://t.co/HwKQWNx)

2011-09-04 14:38:45
コンピュータビジョン勉強会@関東 @kantocv

なぜDense Samplingだと性能が上がるかという質問。答え:のっぺりした領域も情報として重要だから。#cvsaisentan

2011-09-04 14:42:22
みやびあーつ @miyabiarts

局所的な特徴のバギング。空間情報の付加。近傍の特徴との関連性。局所特徴量よりメタな属性の利用。まとめてみるとまっとうに進化していますね。一般物体認識。それもこの10年の間に急速に。もちろんその裏側には長い年月の画像認識が潜んでいますが。 #cvsaisentan

2011-09-04 14:43:10
みやびあーつ @miyabiarts

のっぺりした領域も重要ということで、MSERなんかは結構良い特徴領域検出手法というような論文も見ましたね。 ( #cvsaisentan live at http://t.co/HwKQWNx)

2011-09-04 14:47:07
大山ゆっけ(蘇る鈴木佑輔) @trinity_site

Visual Wordがクラスタリングの観点で最適かどうかが、どれだけ認識結果に影響するのか。バグでほとんどランダムなVisual Wordでテストしてしまったことがあるが、小さなデータセットだとそれなりに分類できてしまったことがある。 #cvsaisentan

2011-09-04 14:50:48
Akisato Kimura @_akisato

@kantocv ただ,その一方で,適切なdescriptorを選ばないと,特徴点抽出で選ばれないような点でのdescriptorは簡単に揺らいでしまうので,すごく注意が必要な部分だと思います.

2011-09-04 15:21:28
みやびあーつ @miyabiarts

2009年のPRMUで柳井先生がとにかくカイ2乗カーネル使おう。そしてカイ2乗カーネルが入っているSHOGUN使おう。とおっしゃていました。 ( #cvsaisentan live at http://t.co/HwKQWNx)

2011-09-04 15:27:03
Akisato Kimura @_akisato

L2,histogram intersection,カイ2乗,KL,earth moverという距離尺度の変遷を見るに付け,特徴量の分布を新しい特徴量とし,それら分布間の距離をどう取るか,というモデリングとメトリックの話になっている気がする.@kantocv

2011-09-04 15:34:16
Akisato Kimura @_akisato

その一方で,特徴量の分布が,特徴量(区別するために特徴量表現,と言うべきかも)として本当に良いのかどうかについては,あまり議論されてきていない気がする.@kantocv

2011-09-04 15:36:00
みやびあーつ @miyabiarts

特徴量の分布とか距離基準は、きちんとやるなら解析学や確率論とか、もっと根本的なところにある測度論に基づいて議論を重ねると、ここらへんの理論の深淵が見えそうな気がするけど、気がするだけかも知れない。ただ難しそうな言葉を並べているように受け取ってもらえても可。#cvsaisentan

2011-09-04 15:42:17
Akisato Kimura @_akisato

特徴量そのものではなく特徴量の分布が識別に意味を持つ,ということは,(1) 特徴量そのものの対象同定性能が高すぎる (2) 特徴そのものでは識別に必要な情報が得られない ということのいずれかが起きている可能性が高い #cvsaisentan

2011-09-04 16:00:13
Akisato Kimura @_akisato

一般物体認識を含めた現時点での画像認識では,先ほどの両方の現象が同時に生じていて,どこをサボってどこを深く掘り下げるべきなのか,まだ区別できていない気がする.#cvsaisentan

2011-09-04 16:03:04
大山ゆっけ(蘇る鈴木佑輔) @trinity_site

Visual Wordsの次元が無限になったら特徴空間的にどうだろうとか、学習データが無限になったら特徴空間的どうだろうとか考えると話が見えてくる希ガス。 #cvsaisentan

2011-09-04 16:05:26
Akisato Kimura @_akisato

ただ,そこまでわかっていながら自分でもできていないのが何故かと考え直してみると,それらの現象が識別対象や状況にあまりに依存していて,一般的な議論としてどっちが良い・良くないという判断が非常にやりにくい,というところから来ているように思う. #cvsaisentan

2011-09-04 16:05:42
みやびあーつ @miyabiarts

一般物体認識の割と本質とは無関係な場所での問題点として、特徴次元数、データ量やバリエーションが膨大なことに気圧されて、実験が何故上手く行っているのか?何故上手くいかないのか?という分析が曖昧なままで推し進めてしまうことが大なり小なりあるかなという印象。 #cvsaisentan

2011-09-04 16:07:17
みやびあーつ @miyabiarts

あと、この間の東大 原田先生の話に近いけど、「一般」と言いつつも実験対象としたデータセットの中でそれなりに上手く行っても、実際の「一般画像」に対して認識処理を行った時に精度が保証されていないのも実用としては大きな問題になるかな。#cvsaisentan

2011-09-04 16:09:21
Masaki Hayashi @payashim

@syou6162 データマイニング、もとい機械学習って学習データに嘘がまじったものがあってもうまく嘘データを避けるみたいな技術ってあるんですかね。

2011-09-04 17:11:22
Masaki Hayashi @payashim

@syou6162 たしかにノイズをモデリングすれば解けそうですが、あまりそういう研究とか見かけない気が。わたしたちの画像系の場合は、観測した画像が根本から誤ってる(嘘ついている)という課題がないのでそういう研究がないんだとは思いますが。

2011-09-04 17:17:15
Masaki Hayashi @payashim

@syou6162 もちろん、「整形した顔をみやぶる」や「PhotoShopでの加工を見破る」など多少はあると思いますが。テキストの場合、嘘とか誤りって往々にして混入してますよね。

2011-09-04 17:18:52
Masaki Hayashi @payashim

@syou6162 そういうテーマではなされてるんですね。Web上にあるデータを学習にそのまま使うの時にみんな性善説すぎる(=誤りが含まれていないとみなす)傾向が強いと個人的に思っていて、その意味でテキストの意図や文法誤りを見破る技術は今後おもしろいと思います

2011-09-04 17:30:39
Akisato Kimura @_akisato

@payashim @syou6162 画像認識系に限って言えば,性善説でないと問題が永遠に解けない,ということをわかった上で使っている人がけっこうな数いると思っています.

2011-09-04 18:16:50
Akisato Kimura @_akisato

@payashim @syou6162 というのも,画像に対してつけられた付加情報が誤りであるかどうか,に関して,万人に共通する正解がどこにも存在しない,という点があります.「好き・嫌い」「きれい・汚い」はその典型だと思います.

2011-09-04 18:19:03
Akisato Kimura @_akisato

@payashim @syou6162 と言ってどうしようもないわけでもなく,コンテンツに関係ない情報を消す http://ow.ly/6kWiQ とか,多くの人の共通意見を採用する http://ow.ly/6kWm4 とか,何とかしようという試みは小規模ながらなされています

2011-09-04 18:25:32
Akisato Kimura @_akisato

昨日の話に突然戻ってみると,特徴量の分布が一般物体認識に有効なのだとすれば,特徴量の分布,すなわち特徴量の生成過程を適切にモデル化できさえすれば,高度な非線形識別器がなくとも高い精度が出るはず,なんだが…

2011-09-05 12:40:51
残りを読む(7)

コメント

コメントがまだありません。感想を最初に伝えてみませんか?