ヒトとキカイが見るセカイ

人工知能学会誌の表紙イラストに関するつぶやきに端を発したつぶやきと議論とつぶやき
14
NaOHaq(苛性ソーダ) @NaOHaq

昔から思うことで、「ロボットの視覚機能に映ってる世界」って大抵、「カメラで撮った画像に色んな数値とか認識対象を表すカーソルとかフレームとかがオーバーレイ表示されてる」感じになってるけど、あれロボット自身が知覚してる世界じゃなくて開発者向けのデバッグ画面だよね

2014-03-05 17:11:40
NaOHaq(苛性ソーダ) @NaOHaq

色んな自己診断情報は判断、行動系のロジックへ直接入れればいいから人間みたいに「数字の列」として認識し直す必要はないし(というより、人間はそういうのを「痛み」等として知覚してるわけで)、どこに何があって~とかもそれは「映像を処理した結果」でしかないし

2014-03-05 17:17:36

もともとはこのツイートが発端……


end_NTak @end_NTak

「あんなのデバッグ情報じゃないか」の人たちは、むしろ、人の描く普通の絵画と視覚情報についての考察が足りないのか。どうあれデバッグ情報以上のものにはなりえないわけで。完全な記号として編まれる漫画はほとんどないけど、一方で、記号性を一切もたない視覚芸術もありえない。

2014-03-06 15:37:44

「ヒトは何を見ているのか」ということと、「それをどう表現するのか」ということの関係について

end_NTak @end_NTak

なんらかのアルゴリズムによる射影ではない「ナマの」視覚情報は、視覚化されてないから理解出来ないし絵画でもないよね、ということ。

2014-03-06 15:40:14
end_NTak @end_NTak

人間の網膜に結ばれる像は上下左右が逆らしい。じゃあ、絵に描かれる上下左右の正しい図像は、デバッグ情報なのか、ということ。

2014-03-06 15:42:18
end_NTak @end_NTak

美術の先生が、今時の漫画絵にどっぷりつかった学生に最初に教えるのが、「物に輪郭線はありませんよ」だそうなのだが、なぜ人は輪郭線を描きたがるのかというと、もちろん漫画アニメの影響もあるが、輪郭線は人の脳内にあるからだ。

2014-03-06 15:50:14
end_NTak @end_NTak

物の側にはないけれど、あるいは網膜に映った像にはないけれど、それを脳が処理するときに、オブジェクトを切り分ける輪郭線は付与されるのだろう。そういう意味では、このろぼっとが子供の顔に当てている丸いサークルと似たものを人間も知覚の上で確実に使っているのだ。

2014-03-06 15:51:56
フリー素材 @zokumetu

@NaokiTakahashi ただまぁインジケーターとかカーソルとかが違和感あるのは確かだと思います。たとえば攻殻SACでタチコマがアームスーツと戦ってる時なんかの視界の表現は不自然に感じ、イノセンスでバトーがコンビニ内をズームして見渡していた時の表現は比較的自然に見えました。

2014-03-06 15:54:00
end_NTak @end_NTak

@QuadStandard 分かるのですが、程度差でしかないなあという気がするんですよね。本質的な誤謬とまでは言いにくそう。電子顕微鏡や電波望遠鏡の映像を視覚化するのは、目で見ているわけではなくアルゴリズムで作ったという意味では嘘ですが、でも視覚化は分かりやすいですよね、という。

2014-03-06 15:56:20
end_NTak @end_NTak

@SubaruG デバッグ情報ではないロボットの知覚をナマのまま正しく視覚的に構成することが出来るのかについては述べていないんですよね。俺は、そこは不可能だと思うので、そこが気になってる感じですね。

2014-03-06 16:03:03
普通のC++使い、銀天すばる @SubaruG

他の言い方をすれば、「自分以外の人に見せるための情報」

2014-03-06 16:03:04
end_NTak @end_NTak

赤のクオリアみたいな話になるけど、絵に描いたときにだいたい同じ絵になることは、二人が同じように知覚している保証にはなりえないんだよね。これは片方がロボットであれ人間であれ同じ事で。どうあれ他人の知覚する世界を図像化することには必ず嘘が伴う。物自体とか? あるいは違う話かな?

2014-03-06 16:03:51
普通のC++使い、銀天すばる @SubaruG

自分が普段行っている思考と、人に伝えるために整理された思考が全くの別物であるように、人工知能が「主観的に」把握している情報は、そらくこんな整然としたものではないのではないか、とは漠然と思います。 もちろん、この手の「強い」人工知能が実際に開発されていない以上、根拠はないです。

2014-03-06 16:06:07
普通のC++使い、銀天すばる @SubaruG

そもそも「文字を読む」ってのは、(人間の場合)かなり高度な情報処理を挟まないといけないので、主観的な認識に文字を使うことは無いだろうという話でもあり。

2014-03-06 16:09:01
普通のC++使い、銀天すばる @SubaruG

言語自体が他者に伝えるためのもの、という意見には賛同しかねますが(音声言語はかなり思考の根本に近い部分にあると思うし)、文字を使った表現に限っては、本質的に「他者に伝えるためのもの」なんだと思ってる。 もちろん自分で文字を書いて思考を整理するケースもあるけど。

2014-03-06 16:11:17
普通のC++使い、銀天すばる @SubaruG

視界のサイバネ置換は そのうち行われると思ってるけど(たぶん強い人工知能より先にできると思う)、その場合、主観的にどういう構成になるかは結構気になります。 Google Grass 的なものより一段階脳に近い場合とか

2014-03-06 16:14:16
end_NTak @end_NTak

@SubaruG 多分ロボットの中でも、そして人間の視覚のシステムにおいても、「主観的な認識」というのはつまり電気信号だと思うんですよね。神経の発火のパターン。絵にならない。それを絵にしてる時点で、字を使うか使わないかに関わらず、それ自体は嘘なんじゃないかなあと。

2014-03-06 16:14:28
普通のC++使い、銀天すばる @SubaruG

@NaokiTakahashi ですが、例えば写真やディスプレイには、我々の見ている世界と殆ど同じ世界を映せるわけですよね。

2014-03-06 16:15:17
普通のC++使い、銀天すばる @SubaruG

@NaokiTakahashi もちろん色盲の人には全く別の色合いに見えるんでしょうが、そういう話は置いといて。

2014-03-06 16:15:41
end_NTak @end_NTak

@SubaruG そうでもないんですよね。網膜は曲がっているので、端っこが写真やディスプレイと比べて歪みますし(網膜の曲がり具合を計算に入れて作られたのがエンタシス技法だと聞いたことが)、網膜に映る図像そのものは上下左右逆なのだそうで。

2014-03-06 16:17:45
普通のC++使い、銀天すばる @SubaruG

@NaokiTakahashi 写真を持ちだして「あなたにはこんな風に世界が見えてますか」という質問をした時と、件の まるでデバッグ情報のような映像を持ちだして「あなたにはこんな風に世界が見えてますか」という質問をした時の答えって、たぶん別のものになるんじゃないですかね。

2014-03-06 16:18:21
1 ・・ 4 次へ