ディープラーニングの画像認識ソフトで『パンダの画像+ノイズ』が『99.3%テナガザル』と判定される脆弱性が!

AIって不思議
26
シータ @Perfect_Insider

今日の機械学習の講義で聞いて驚いた話。左のパンダの写真にごくわずかな加工を加えて右の写真にすると、人間の目にはほぼ同じに見えるのに、最新鋭のDeepLerningの画像認識ソフトでも、左はパンダと判定されるが、右は「99.3%テナガザル」と凄まじい誤判定を起こす。 pic.twitter.com/SvB76Rm1NR

2017-08-09 23:03:29
拡大
シータ @Perfect_Insider

これはadversarial exampleとして知られているもので、誤反応を引き起こす巧妙な加工が行われている。しかもニューラルネットによる画像認識に対しては共通の脆弱性があり、共通の加工で多くの異なるマシンが騙されるらしい。 sotetsuk.hatenablog.com/entry/2015/12/…

2017-08-09 23:07:43
ルルドラゴ🎄 @Rurudrago

57.7%パンダ+8.2%線形動物=99.3%テナガザル

2017-08-10 21:38:07
ακc @real_osashimi_p

99.3%テナガザルのパワーワード感

2017-08-10 21:01:40
りよ@60万貯める @mashu_riyo

@Perfect_Insider 真ん中の画像が8パーセントながら線虫と判断されてることにも驚いた…

2017-08-10 13:08:31
賽骰だいす@甘味を要求する @Saikoroid

加工用のノイズ画像を「8.2%の確率で線虫」って判定してるのもなかなかうまくいかない画像判定AI感あっていい

2017-08-10 22:56:04
くーちゃん@ @hanayo_12ch

データの前処理は大切(こういう画像が混じってる可能性)

2017-08-10 14:04:19
悪魔猫なおすけ @nyaa_naosuke_su

過学習かあるいは学習材料が不適切なのでは_(:3 」∠)_

2017-08-10 13:54:03
MoT @romaspqr

「ニューラルネットの構造か学習のさせ方が適切でなかったのでは?」

2017-08-10 00:57:12
桐山櫛那 @exiomica

ノイズへの耐性はニューラルネットワークの課題の一つでしたねそういえば。

2017-08-10 10:52:51
ehabu @ehub00

@Perfect_Insider フォロー外から失礼します。 画像認識を利用したセキュリティとそれをかいくぐろうとするハッカーの戦いが現実になるかもしれませんね。

2017-08-10 20:32:51
セバス🍶ちゃん 🌻 @tokumi2

機械化された人に対する光学迷彩的に使えるのかな。

2017-08-10 13:45:41
wp1t @wp1t1

@Perfect_Insider 元のパンダ画像が57.7%程度だから、ノイズ加えると99.3%テナガザルに化けてしまう? では、99.3%パンダ画像だったらテナガザルデジタルデータにはならないのだろうか? 人物画像判定セキュリティシステムへの警告になるだろう。

2017-08-10 08:31:09
リンク Engadget JP 「標識ハック」が自動運転AIに混乱をもたらす研究結果。見た目わずかな差がまったく違う意味に - Engadget Japanese ワシントン大学やミシガン大学からなる研究チームが、いとも簡単に自動運転車のAIを混乱させる方法を発見しました。たとえば既存の停止標識にいくつかのステッカーを貼るだけで、自動運転AIはそれを速度制限の標識に誤認識するとのこと。 自動運転車は、LIDARや超音波といった物体検出センサーに加え、カメラによるイメージなど... 21 users 134
ラシュー @rasyu

>RT こういうのを見ていると、自動運転技術が怖いものにも見えてくる。自動運転技術は早く広まってほしいとは思うけど。

2017-08-10 22:43:50
レプリカ先生(セルヴォ:戦術派狙撃手)@ガンブレアプデ @seruvo

@Perfect_Insider まだまだ画像認識技術は発展途上って事ですね? ……しかしそう考えると人間の認識能力すごいな……。

2017-08-10 10:56:39
おいでよケムリクサの森 @kemurikusamori

@Perfect_Insider @321Ziram 中央の画像も機械で作り出されたものなので、もはや人間が関与できないレベルにまでAIの精度が上がっているということですね。人間はAIの力を借りないと、自分だけの力ではAIを騙すことすらできないという証明に…

2017-08-10 10:55:29
たく 青空に移動 @tobanzhan

去年話題に上った、スカートの色の話と似ている気がする。人間の目(というか正確には脳)は恒常性を担保できるが、そのために違う色を認識してしまうことがあるし、錯視が起きることもある。

2017-08-10 21:30:04
たく 青空に移動 @tobanzhan

対象物のカテゴライズは、人間とハトなどでも異なることが研究で明らかになっている。その上で、ツイートを見る限り、ディープなラーニングはハト寄りな情報処理をしているようにも見える。

2017-08-10 21:30:34
くりゅ @yuk_kuryu

パンダがテナガザルになるくらいならまだ普通で、全く訳のわからない画像でも騙せちゃったりするんだよね

2017-08-10 08:53:05
しげやん @sige_yang

パンダにノイズを加えるとテナガザルと認識される問題、googleでも軍艦の名前を検索すると女の子の画像ばっかりになるので画像認識の技術はまだまだ発展途上だ(

2017-08-10 12:09:52
ゼロナイン @afo_kusa

パンダっぽいテナガザルかもしれない

2017-08-10 20:41:12