- marco_bluesky
- 33722
- 26
- 3
- 123
今日の機械学習の講義で聞いて驚いた話。左のパンダの写真にごくわずかな加工を加えて右の写真にすると、人間の目にはほぼ同じに見えるのに、最新鋭のDeepLerningの画像認識ソフトでも、左はパンダと判定されるが、右は「99.3%テナガザル」と凄まじい誤判定を起こす。 pic.twitter.com/SvB76Rm1NR
2017-08-09 23:03:29これはadversarial exampleとして知られているもので、誤反応を引き起こす巧妙な加工が行われている。しかもニューラルネットによる画像認識に対しては共通の脆弱性があり、共通の加工で多くの異なるマシンが騙されるらしい。 sotetsuk.hatenablog.com/entry/2015/12/…
2017-08-09 23:07:43@Perfect_Insider フォロー外から失礼します。 画像認識を利用したセキュリティとそれをかいくぐろうとするハッカーの戦いが現実になるかもしれませんね。
2017-08-10 20:32:51@Perfect_Insider 元のパンダ画像が57.7%程度だから、ノイズ加えると99.3%テナガザルに化けてしまう? では、99.3%パンダ画像だったらテナガザルデジタルデータにはならないのだろうか? 人物画像判定セキュリティシステムへの警告になるだろう。
2017-08-10 08:31:09@Perfect_Insider まだまだ画像認識技術は発展途上って事ですね? ……しかしそう考えると人間の認識能力すごいな……。
2017-08-10 10:56:39@Perfect_Insider @321Ziram 中央の画像も機械で作り出されたものなので、もはや人間が関与できないレベルにまでAIの精度が上がっているということですね。人間はAIの力を借りないと、自分だけの力ではAIを騙すことすらできないという証明に…
2017-08-10 10:55:29去年話題に上った、スカートの色の話と似ている気がする。人間の目(というか正確には脳)は恒常性を担保できるが、そのために違う色を認識してしまうことがあるし、錯視が起きることもある。
2017-08-10 21:30:04対象物のカテゴライズは、人間とハトなどでも異なることが研究で明らかになっている。その上で、ツイートを見る限り、ディープなラーニングはハト寄りな情報処理をしているようにも見える。
2017-08-10 21:30:34パンダにノイズを加えるとテナガザルと認識される問題、googleでも軍艦の名前を検索すると女の子の画像ばっかりになるので画像認識の技術はまだまだ発展途上だ(
2017-08-10 12:09:52