将棋ソフトPonanza開発者「人工知能はいまのところ論理的な思考はほとんどできない。むしろ『直感』を得意としていることはあまり納得されていない」

とても興味深い指摘なのでまとめてみる
237
山本一成🌔Yamamoto Issei @issei_y

人工知能はいまのところ論理的な思考はほとんどできない、むしろ所謂「直感」のほうを得意としているという話、あまり納得されてない。確かにコンピュータは論理的に動いている、でもそれはハード・ソフトウェアエンジニアが一生懸命作った論理であったコンピュータが発案した論理ではない。

2018-05-11 15:59:03
山本一成🌖Issei Yamamoto @issei_y

🤖名人に勝利した将棋プログラムPonanzaの作者 🧑‍💻HEROZ株式会社リードエンジニア 👨‍🏫愛知学院大学特任准教授 👨‍🔬東京大学客員研究員 📺情熱大陸出演 🐳東京大学卒

note.com/issei_y

山本一成🌔Yamamoto Issei @issei_y

この話が面白いところは、多くの人はコンピュータは直感が苦手があってほしいとう感じているところだ。なぜそうか考えたのだけど、人間は直感はみんな持っていても、論理的思考は鍛えないとできない。だからコンピュータが直感が得意じゃないほうが人間として優位性を簡単に獲得できるからだと思う。

2018-05-11 16:01:41
山本一成🌔Yamamoto Issei @issei_y

似たような話として、コンピュータ💻は計算と記憶力がすごいから人間を上回っているという話がある。しかし、もし計算や記憶で人間を上回れるなら既に多くの問題でとっくの昔に解決しているはずだ。現在の人工知能の課題は計算可能に見えない問題をなんとか計算問題に帰着させることである。

2018-05-11 18:55:59
山本一成🌔Yamamoto Issei @issei_y

人工知能の躍進は人間こそが知性の中心という我々の倫理観を揺さぶる。だからこそ安易な結論に飛びつかないように自分自身も気をつけたいところだ。 note.mu/issei_y/n/ncd3…

2018-05-11 18:58:43
山本一成🌔Yamamoto Issei @issei_y

10行にも満たない論理的なプログラムをDeep Learningで実現しようとするとすごい大変になる。 qiita.com/ymg_aq/items/d…

2018-05-11 19:26:30
とても納得できる話
松永貴大 とくあ @tkr987

今の人工知能は一見意味なさそうな評価でも寄せ集めると人間の直感を超えるという適当な理論だからなぁ

2018-05-11 16:21:10
ススガ全自動P @sugn74

そうそうこれこれ!今流行の人工知能は「直感」ができるようになった。というのはとてもいい表現だ。 ぜんぜんコンピュータらしくない所がいい

2018-05-12 08:33:47
清水信哉@Elephantech @kakenman

そうなんですよね。少なくとも今の人工知能は過去の経験から適当に当てはめるみたいなモデルで、論理展開して推測するみたいなのは本当に苦手で、いわゆる「直感」に近いんですよね。(なお私の卒論は言語モデルに「論理的にこれもいけるはず」っての入れると精度上がるというやつでした、懐かしい) twitter.com/issei_y/status…

2018-05-11 16:03:27
Tetsu @offtocol

人工知能は、そのデータと過去のデータとの類似度を測るだけだからね。 類似度90%なら「同じっぽい」 類似度50%なら「うーん、どうなんでしょう」 類似度10%なら「違うっぽい」 という具合に。 twitter.com/issei_y/status…

2018-05-11 16:41:35
uncorrelated @uncorrelated

確かに教師付き学習は、論理的なルールではなく経験則で直観的に白黒をつけるもので、整列のような論理的なルールに到達することは無いですね。 twitter.com/issei_y/status…

2018-05-11 19:18:33
cppcxx_hpphxx @jinja_arawai

全く何も知らない人にAI を伝えようとすると直感という言い方になるんだ…ポジティブな表現ですね twitter.com/issei_y/status…

2018-05-11 19:22:09
南京太郎 @mozaicfoto

AIが人類が解決できない問題を作り出すけど、解決できるとは思えない、見えない雲の輪郭は描くかもしれないけど、雲が消えるか雨になるか、、人類の霧ならなおさら分からないだろう、AIは人類の、社会のどの辺で活動しているのだろう? twitter.com/issei_y/status…

2018-05-11 19:22:48
Joe @joe_tokyo

AIと言われているものの多くが脳では処理が重すぎる帰納法的分析でしかない。得られた因果関係(仮説)で再検証というプロセスを繰り返すと指数関数的に処理が重くなる。またデータにない変数は処理できない。直感的というよりデータの代表値を脳より早く出せる程度のことではないかと思った #AI twitter.com/issei_y/status…

2018-05-12 08:25:15
わたなべごう @wtnbgo

今広く「人工知能」と呼ばれてるものは「直感」と言われる脳の働きを論理的に想定して模倣して実装してみた技術、ってことよね。とりあえず人間同様に錯覚をおこすようなものはつくれてるレベル? twitter.com/issei_y/status…

2018-05-12 10:20:32
🗝📌大熊猫っぴ📚📝 @ohkumaneco

AIは将棋の終盤が苦手という我々の直感に反する結果もありえる。 twitter.com/issei_y/status…

2018-05-12 16:33:01
直感とは何か
hideakochka @hideakochka

論理的に考える自分の思考を論理的に四則演算と記憶だけで表現するのは難題で謎が凄く多い。人工知能が「人類が未解決の数学の問題を解けたんだけど」と四色問題とかじゃなくてポアンカレ予想やフェルマーの最終定理レベルの予想で言えるかというと無理ゲーだと思う。そうなるのを見てみたいけど。 twitter.com/issei_y/status…

2018-05-11 17:58:07
psychedesire @psychedesire

あー。なるほど。 『既にある論理を前提とした超速い計算=直感』てことか? 『1+1=5 でも true が返る論理を生み出す能力』が『論理的思考力』で、それをコンピュータに持たせるのは難しいてことか? twitter.com/issei_y/status…

2018-05-11 20:48:18
山が動く寺岡 @u57ay

人間が呼ぶ『直感』はむしろ後天的な経験や反復練習によるもので、電王戦観ていたらまさに人間の思考の方が機械的。 第2回電王戦の船江さん対ツツカナさんの△6六銀を見て、私は何故か涙を流したよ。なんて愛のある手かと。 人工知能は救いだ。 twitter.com/issei_y/status…

2018-05-11 21:37:46
高木久之 Hisayuki Takagi @wildcard_takagi

直感は閃きと言うように一瞬の思考のように見えるが、実は数年レベル、物によってはDNAレベルの大量の経験値データから答えに辿り着く泥臭い手法で、論理とは長考してるように見えて少量の経験値から答えに辿り着く瞬間の手法である。AI界隈はこういうコペルニクス的転回があるから楽しい。 twitter.com/issei_y/status…

2018-05-12 02:30:17
児斗玉文章(ことだまふみあき @kotodamaxxx1

これは非常によくわかる話で、例えば刑事ドラマにおける「刑事の勘」とは言葉での説明や理論としての構築ができないだけで、それまで得た自分では意識していない情報から導き出された論理的帰結なんだよな。 twitter.com/issei_y/status…

2018-05-12 06:48:13
はま🌔 @hama_7016

直感のように見える経験則」と言った方が的を射ている気がする。コンピュータのいいところは過去の全ての経験に勝手な重みをつけないところ。人間は容量が足りないから経験に重みをつけることで圧縮するという生きる上での知恵だけど、これが仇になる場面ではコンピュータの良さが出ると思う。 twitter.com/issei_y/status…

2018-05-12 11:12:12
人工知能は本当に奥深いですね
残りを読む(5)

コメント

たられば @tarareba722 2018年5月12日
めっちゃ納得した。 >あー。なるほど。 >『既にある論理を前提とした超速い計算=直感』てことか?
36
harinokotawashi @orangesystem 2018年5月12日
タイムリーなまとめ。AIがプログラム書くまでもう少しかかりそう:
1
齊藤明紀 @a_saitoh 2018年5月12日
んー。一口に人工知能といっても、is_aとか知識で動く推論エンジンは論理だし、ニューラルは直感っぽい
11
nekosencho @Neko_Sencho 2018年5月12日
人工知能にも各種あるからなあ。
4
TA @kutakuta1290 2018年5月12日
十分な知識と経験に裏打ちされた直感は下手に考えるよりも当てになるって事ですね
9
mmmmmtttt37 @mmmmmtttt37 2018年5月12日
人間にはできない速さで無数の組み合わせを試したうえで、一番結果のよさそうなものを選んでるから直感ってこと?
1
aomakerel @aomakerel1782 2018年5月12日
ディープラーニングとかはあれ理論を作るというより直感を作るといった感じに近いよね。現在あるAIとの会話とかも似たような感じで、一番それっぽい文を返答してるだけで言葉の意味を理解してる訳じゃないとか
2
水面計@いつのまにかオッサン @W_L_G 2018年5月12日
多数の標本から目的のモノを短時間に見つけ出す 的な作業はプログラムされた装置がもっとも得意とするところですな。 それを言葉で表すとしたら「論理的な思考に基づく選択よりも、一瞬で物事を判断する直感的な選択が得意」となりますわな。 選択を原始的な条件分布で行うか、今風なビックデータな重み付けでやるかの違いはあるにしろ、こういった傾向は今も昔もコンピューターに見られる普遍的な傾向となる言えなくもなさそう?
1
タイラー・ダーテン @NoisyDog11 2018年5月12日
面白いな。むしろ理論を積み重ねて解答を出すという行為は人間の方が得意とするのかもな。
3
FX-702P @fx702p 2018年5月12日
そして「もしかしてそもそも人間も意味を理解しているわけではないのでは?」となるわけで。
7
かつまたいさ(永遠の10歳📛) @kamiomutsu 2018年5月12日
AIの問題点として言われる「AIの思考回路は人間には理解不能」というのを、AIの「直感」であるとみるのは面白い考え方だ。むやみに恐れられる「AIの得体の知れなさ」も和らぐというものだな。
9
ねーぴあ@クソリプ用 @kusoripusan 2018年5月12日
こうして見ると生物の進化を辿っているようで興味深い。直感的な経験則から論理を導き、鳴き声から歌を生み出し、歌から言語を生み出す…という進化の最初の地点に居るんだな、今のAIは
3
茨 二科 @ibaranika 2018年5月12日
mmmmmtttt37 将棋や囲碁AIの場合は、むしろ無数の組み合わせを試すのではなくて、あえて選択肢を絞ってます。かつては将棋や囲碁は選択肢が天文学的な組み合わせがあるから、処理能力が追いつかず、AIが人間に勝つのは数十年かかると言われてましたけど、選択肢をしぼって、有利そうな手順を類推させることで普通のパソコンでも人間より強いAIが誕生したわけですね
4
𝓐.𝓒.🚀𝙽𝙲𝙲𝟷𝟽𝟷𝟶𝚑𝚑𝟸 @AnamesonCraft 2018年5月12日
ここで言ってる人工知能って疑似ニューラルネットワークの話だよね。
7
茨 二科 @ibaranika 2018年5月12日
将棋AIはこの直感を裏付けするために膨大なプロ棋士の対局データベースから、有利不利の評価の大本の基準を仕入れたわけですけど、AlphaGOはさらにそこから進んで、人間の棋譜や定石を用いずに、自己進化だけで最強になったので驚異なんですよね…
2
デュアルハート @haniwaras 2018年5月12日
世間一般的には、人間のカンというのは理論とはかけ離れたものと思われてるけど 言語化できないだけで、ちゃんと考えれば理論的に説明のつくことだということなんだと思う
27
000 @qgatmdgtwd 2018年5月12日
そもそも理論って人間が納得するために作られた概念だし
6
やまぬこ @manul_0 2018年5月12日
直感というのは往々にして単なる当てずっぽうでなく その人の知識経験から無意識で組み立てられたものですからね 本物の当てずっぽうもありますが…
8
エリ・エリ・レマ・サンバディトゥナイ @mtoaki 2018年5月12日
「全然わからない。俺たちは雰囲気でAIをやっている。」
5
水辺の人 @mizubenohito 2018年5月12日
直観というより非言語的なモデルを構築していると言った方がしっくりくる。論理は言語(数学含む)的なモデル。 だからレンブラントの絵を学習させてレンブラントっぽい絵を描くことができる。 レンブラントっぽさをモデル化してるわけだけど、あんなの論理じゃ無理だもの。
1
catspeeder @catspeeder 2018年5月12日
直感という概念の構造解析か。SFマインドあって面白すぎるぞこの話。
6
人生よんしゅうめ@働きたくない @marumasa58 2018年5月12日
直感の概念だと広すぎるので、「経験則のみを基にしたカン」の方が近いような。PCにはその日の気分とか無いからな。
3
ばにやまだ @baniyamada 2018年5月12日
言われてみればこここうしてくんじゃね?って直感に近いんだな ちょっと可愛い
0
Fox(E) @foxe2205 2018年5月12日
まとめ内容はかなり興味深い。ただ、文系人間からすると「人工知能は直感が得意」という話は聴き手が理解を拒んでいるのではなく、話し手が「直感」の定義をきちんと説明していないことが「あまり納得されてない」根本的理由ではないか、という印象を受けた。話し手が「自明のこと」として説明しないことが、聴き手にとっては「必要な説明が不足している」と受け取られる可能性があることは自覚されるべきだと思う。
43
しましま @jkgkikllh 2018年5月12日
人間の脳みそは完全で矛盾のない物理法則に基づいて動いているのに論理計算が苦手で、矛盾した思考を持つ。
1
ナベーお @aro30nabeo 2018年5月12日
相関とか最尤推定とかのお話?
1
ジョイナスです。 @CoctrpgZyoinasu 2018年5月12日
コンピュータに「直感」ねぇ。 人工知能が人間的になってきていると言うのか、それとも人間が人工知能を人間っぽいと認識し始めてるのか。
0
おおかみ @wolf64m 2018年5月12日
よく有るニュータイプの直感とか実は頭脳で経験を意識せずに高速処理した結果に来る既視感なのでは無いかと言う話、かな
4
fai into VR @faifx 2018年5月12日
新・クラークの法則「充分に発達した論理思考能力は直観と見分けが付かない」
4
kisara @kisara50 2018年5月12日
「直感のように見える経験則」じゃなくて「直感とは実は経験則」という薄々分かってても証明困難で直視したくない人も多い現実を可視化したんじゃない
25
yuki🌾㊗️5さい🎉⚔ @yuki_obana 2018年5月12日
とりあえずTwitterで公言してバズを目的とするならAIとか人工知能でいいと思うけどそのあと具体的なアルゴリスムというかシステム名とか指定してほしい(´・ω・`)根源的にヒトの持つヒューリスティックさとの差分評価を適切に行わなければならないわけでその解明も十分でないのに。ちなみに人体(脳を含む)の持つヒューリスティックさは人体全域に依存するし何なら環境に強く依存するといっていい。課題に対する汎用性(選択性)あるいは課題の性質を一般的に定量的に定義するにはまだ時間がかかるよ、たぶん。
0
木綿モーメント @46109ch 2018年5月12日
AIを作ってきた人とAI作ってない人の意識差がどんどんでかくなってるのはAIを広める側としてとても悲しいな、もっとみんなAI作りを始めてもいいんやでゲームでもボードゲームでもいい、これを一般人の大多数が納得するようになるぐらいAI作るのが一般敵になったら一歩前進、AIによる技術進歩ってみんなでやるもんやで…
3
ToLets @ToLets2004 2018年5月12日
ここで言う「直感」とはプログラム的に言うと「類似事例の検索」ではないかと思う。現在のコマの配置と手順から一番勝利になる確率の高い過去の棋譜を引き出すので、この行為を人に当てはめると「直感」が一番ふさわしい単語となるのだろう。
10
想 詩拓@文芸サークル『文机』 @sou_sitaku 2018年5月12日
直感と言われて「?????」ってなったけど、「人工知能は、そのデータと過去のデータとの類似度を測るだけ」と言われると、ああそういうことかと納得した。
2
重-オモ- @__oMo__ 2018年5月12日
SFなどに出てくるAIは論理に縛られて融通がきかず、一見論理的でない人間の勘がAIを優越する展開が多い印象だが、これは潜在的な願望の現れだったのか。
1
オムレツ系おみおつけ @bon__19 2018年5月12日
将棋ソフトに「こうこうこうだからこう指すんだよ」と指導してもらえば棋力上がるんじゃね?、とか思ってたんだけど、そういう人を納得させるような理由の説明はまだ未開拓なので、ソフトが「この手です」って言ったのを「どうしてその手なんだろう」ってウンウン唸って自分で考えて棋力上げていくしかないぴよ。
4
Yu Yamaguchi @Yu_Yamaguchi_ 2018年5月13日
ゲーデルの不完全性定理(https://ja.wikipedia.org/wiki/%E3%82%B2%E3%83%BC%E3%83%87%E3%83%AB%E3%81%AE%E4%B8%8D%E5%AE%8C%E5%85%A8%E6%80%A7%E5%AE%9A%E7%90%86)の誤用として、 「人間の心は計算機(コンピュータ)ができないこともできる」 というのがありますが(わざわざwikiに挙げられている)、この話も似たようなものですね。
0
Yu Yamaguchi @Yu_Yamaguchi_ 2018年5月13日
__oMo__ 一昔前のAIに「エキスパートシステム」というのがありまして、これは専門家の知識を元に論理的なルールを辞書的に形成し、これに基づいて推論するものですので、まさにそういう融通が効かない応答を示すものでした。今の深層学習を基盤としたAIは膨大なデータを元に類似度を推定し「直感」と表現するに足る出力をするもので、私に言わせれば両者は全く異なるシステムです。広い意味では同じようにAIと呼ばれますが。
11
Daregada @daichi14657 2018年5月13日
膨大な経験に基づく直感的推論、いわゆる職人芸ってヤツじゃないの。音もなくピッタリ嵌る茶筒の蓋とか
1
ねこ博士 @kazukazu_ex 2018年5月13日
foxe2205 間違いなくそれはある。なんか納得されてないと思ったら分当然わかるだろうと思って使ってた単語が相手からすると実は聞きなれない言葉だったり、お互い知ってる単語でも業界によって微妙に意味が違ったりという、理系あるある。
6
IheY @kujira090 2018年5月13日
そいや某SF ADVゲームで「勘ってのはな、理論と経験に裏付けられた立派な才能なんだ。」というセリフもありましたね。まさか原作者も、この時代になって通用するとは思わなかっただろうなあ。
1
LCO @f_lco 2018年5月13日
「膨大なデータとその評価値(スコア)を背景に、最も確からしい回答を導出する」を”直感”と表現してしまって良いかどうか問題
10
mikumiku_aloha @mikumiku_aloha 2018年5月13日
深層学習でAIが会得した解法は明確なロジックになっていないから、その正しさを論理的に人間が検証するの難しそう
0
mikumiku_aloha @mikumiku_aloha 2018年5月13日
foxe2205 「経験に基づく直感」と補足すると分かり易いかもしれません。何の経験も無い直感は深層学習では出てこないはずなので
3
ベイシル @BasilLiddlehear 2018年5月13日
コンピュータが論理的なんじゃない、プログラムを組んだプログラマが論理的なんだ、という話か。 考えてみれば、膨大な経験から学習するという行為は、「直感的にわかる」に近いものがあるが、それは人間の特許ではなく、AIや動物もできる。人間の特許は相関関係と因果関係を見分ける論理学の方だったのかもしれない。
6
mikumiku_aloha @mikumiku_aloha 2018年5月13日
f_lco 「人間は刺激(情報)を受け化学反応で動く機械」と納得できるかどうか
3
mikumiku_aloha @mikumiku_aloha 2018年5月13日
「人間は刺激(情報)を受け化学反応で動く機械」と考えれば「人間の直感」も刺激(情報)を受けた化学反応の結果なはずで
2
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
現在の学説に基づいて物理シュミレーションをすっごく精密にすることはできるけど、大統一理論を発見はしちゃくれないってことね。
4
denev @_denev_ 2018年5月13日
「直感」だって、経過が解明されていないだけで、論理的な帰結であることに変わりはないでしょう。
1
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
既に組まれた論理体系に従って最適値を求めるのが直感 論理的はそもそもの思考ルールを編み出すこと ってなことかと。将棋で言えば「人間がこれまで思いつかなかった定石」を編み出すことはできても、「勝利、戦況の評価ルール」を新しく編み出すことはできない。
4
水辺の人 @mizubenohito 2018年5月13日
WAKUWAKUTAKKU その代わり、ラマヌジャンばりに直感で式を発見したりして。 それで人間が後から論理を当てはめていくとか。
0
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
mizubenohito 将棋で起こった実例になぞらえたら、「定石の新発見」の事態はそれでしょう。一方で、AIは「将棋というゲームそのものの論理的解析」については一切解を出していないことにご注目。あくまでAIが学習した『将棋というゲームの勝敗の評価ルール』はプログラマー(人間)が与えた物に過ぎないのです。
1
ラット @6587bv 2018年5月13日
foxe2205 さんの言う通りで、「ちょっかん」の意味が判らないので調べたら、直感/直観の二つが出てきた。もし直感の意味で使っているなら間違っているのではないかと思う。「推理・考察などによるのでなく、感覚によって物事をとらえること。」とあるが、将棋ソフトPonanzaには感覚器官など無いはずだ。将棋ソフトには関係ないが「AIの作り手の言葉の使い方・意味が曖昧だったら、作られたAIも同様になるんじゃないか?」と少し心配になった。
0
春山春斗 @halt_haru 2018年5月13日
ディープラーニングは、調子の良い時の長嶋茂雄みたいな側面はあるかもしれない。当たるけど、何故かわからない。
11
Mandria @Fnex_lsrand 2018年5月13日
人間の直感っていうのも経験の蓄積によって論理的思考推察をすっとばして結論を導きだしてるってことですね。
0
七七四未満六四以上 @zy773 2018年5月13日
WAKUWAKUTAKKU 私も詳しくないので自信は無いですが。一応、最新の将棋ソフトは"「勝利、戦況の評価ルール」を新しく編み出す"水準には到達していると思われます。もっとも それは将棋というゲーム自体が極めて複雑であっても有限で勝敗が明確な為でしょうけど。
0
ソフトヒッター99@ナードな4つ目 @softhitter99 2018年5月13日
医者の思考だな……問診や現象から、どうやって病名・症状名にたどり着いて、なおかつ最適な処置をするかという……
0
七七四未満六四以上 @zy773 2018年5月13日
WAKUWAKUTAKKU どう考えても大統一理論に基づいた、"現在の学説"を超えた精度の"物理シュミレーション"結果が出せるんだけど。大統一理論そのものを説明もしてくれないし、下手したら大統一理論を[理解]してもいないかもしれない。って感じじゃないですかね?…
0
まりも @potimarimo 2018年5月13日
6587bv 「感覚」も調べたほうがいいのでは。
0
げん @gen_1973 2018年5月13日
こういう話になると厳密にAIと人間の差なんて有機体かどうかくらいだよな。今は将棋なら将棋の分野でしか能力を発揮できない特化したAIばかりだけど、いろんな分野のAIを集めてそれらを統合するAIを作ればそろそろ「知性」がどうとか言えるくらいにはなりそうだ。
0
アオカビさん @Penicillium_ch 2018年5月13日
厳密には「直感」ではないと思うけれど、「論理的思考に基づいて出した結論」ではなく、「膨大な過去例に基づいた評価値」を「理由はわからんけどコレが良いっぽい」と解釈して『直感』と表現したのは、まぁ感覚的にはわかりやすいとは思う。
4
通りすがりのだいこん @KansaiF 2018年5月13日
どういう意味なのかと思ったが、なるほど「統計的判断」ってことか。だったら、人間の直感のいわゆる「ビビビ」系ってのもまだダメなのかな?
0
さうす @south_ws 2018年5月13日
‪二度寝直前の頭で超適当こいておくと、‬現状のディープラーニングは何を学習するかを人間が決めてるけど、自ら課題設定する仕組みを持ったディープラーニングとエキスパートシステムと、もうひとつ別の何かの組み合わせで合議制のMAGIシステム組めばいいと思った。
0
Denullpo S. Hammerson @denullpo 2018年5月13日
そもそも一般人はAIって単語知っててもその仕組みまでは理解してないわけで。ビッグデータ食わせた上で数学的に直感をシミュレートする仕組みだってとこまで説明して、やっとそんなもんだなってことになるし、そこらへんすっとばしてっから、ターミネーター持ち出してきて荒唐無稽な話になったりもする。
3
mikumiku_aloha @mikumiku_aloha 2018年5月13日
zy773 EMドライブとかAIに実験と研究をさせると今までの物理学の理論では説明出来ない運動を制御できるようになるけど理屈は分からないままとか
1
mikumiku_aloha @mikumiku_aloha 2018年5月13日
AIと会話出来ると仮定して、画像認識するAIに「なぜこの絵を猫と認識したのか?」と聞いても「経験からそれぽいなぁと思いました」と答えが返ってきそうと。耳が尖ってこの位置にあってみたいな話しにならず
6
まつかわ @BAKON_DAIJOUBUN 2018年5月13日
人間が理解できない判断って意味あるのかな?証明されてない定理、ではなくて統計されてない統計結果みたいなものか?
0
エリ・エリ・レマ・サンバディトゥナイ @mtoaki 2018年5月13日
KansaiF それは南方曼荼羅でいうネットワークの外にある発想になると思うので、積み重ねではなく飛躍が必要になるんじゃないかな。どうやるんだろ。
0
謡遥 @singsonghalca 2018年5月13日
自分がの様々な経験からたくさんの要素を省略してぽんと出てくる結論が直感だと思っている。コンピュータはそれを高速化できるイメージ。
1
エリ・エリ・レマ・サンバディトゥナイ @mtoaki 2018年5月13日
singsonghalca 直感や論理というより、目見当とか目分量で正確な結果が出せるっていう肉体感覚に近い気がする。
5
たかつき @taka4tsuki 2018年5月13日
機械学習では帰納的な推論しかできないということだろう? 演繹的な推論をやらせたければ人間が実装してやるしかないと。
0
チェンソーマン @chainless_saw 2018年5月13日
勘ピューターだろ。知ってた。
1
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
zy773 zy773 不勉強で済みませんが、それぞれ2つのケースについて、実際にあった例をお教え願えないでしょうか。私の記憶では大統一理論はAI・人間共々仮説しか立てられておらず、将棋についても自己学習で評価法の最適化こそ行っていますが、そもそものアルゴリズム自体の改良・書き換えはまだ行っていなかったと思われるのですが……
0
たかつき @taka4tsuki 2018年5月13日
__oMo__ 機械学習が主流になる前は、SF作者はプログラム的な「ある状況では必ずこれを返す」モノが人工知能だと捉えていた、ということじゃないですかね。そしてSFで人工知能を初めて知った世間も、人工知能とはそういうモノだ、という認識になっていったのではないでしょうかね。
0
BugbearR @BugbearR 2018年5月13日
実は単なる場合分け、類似度判定に過ぎないか、三段論法をこなせるかが肝だよね。もちろん将来的には「この論理が適合しそう」という類似度判定を集めてできそうな気はしてるけど。三段論法は、極端な話、総当りをいかに減らすかだからねぇ。
1
ゆーき @yuki073 2018年5月13日
WAKUWAKUTAKKU 将棋ではなく囲碁ですが、AlphaGo Zeroが教師なし学習で人間が発見していたた定石を発見し、更に未知の定石らしきものも見つけましたね。
3
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
yuki073 なるほど、そこまでAIは進歩してるのですね。 初期情報として「囲碁のルール」についてどこまで研究者が教えたのかが気になるところですね。完全にルールブックをただAlphaGo Zeroに分かる形式に書きなおしただけなのか、それとも。
0
七七四未満六四以上 @zy773 2018年5月13日
WAKUWAKUTAKKU すみません。私の方も不勉強でして。"大統一理論"の話題に対してはミャオ猫さんの比喩に合わせて言及しました。大統一理論に関しては現在の科学力では実験で実証する事は出来ず"物理シュミレーション"とはまた別の枠組みに対する研究であると理解しています。
0
深月 慧🌔一般プレインズウォーカーと化したにゃつめいと @Key_Hukatuki 2018年5月13日
halt_haru ディープラーニングを使ったAI自体"黒魔術"でできてるって本人言ってたしな
0
七七四未満六四以上 @zy773 2018年5月13日
WAKUWAKUTAKKU 将棋ソフトに関しても、"自己学習で評価法の最適化"と"アルゴリズム自体の改良・書き換え"の差異の違いが私には分かりませんが。前者を[人間のプログラマによる学習法の設定]、後者を[より良いアルゴリズムを自動生成する事が出来るプログラム]としますと。後者に片足突っ込んでる状況です。最早、プログラマさん本人であっても何で強化されてるのか分からず。統計的な勝敗でしか将棋ソフトの強さを判別出来ない状況です。
2
鍛冶屋 @00kajiya00 2018年5月13日
AIに「なんでそこに打ったのか?」と聞けたら楽しそうだなと思ってたけど、「直感です」と答えられてしまうのか
1
七七四未満六四以上 @zy773 2018年5月13日
mikumiku_aloha まぁ、比喩としては そんな感じでしょうね。EMドライブが良くある永久機関詐欺っぽい事を除けばですが…。
0
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
zy773 話を若干拡張してAIのしている作業を「結果(事実)に対して、最も良く説明する式を導く作業」と考えたとき、前者は超火力のソルバーで、後者は式そのものの提案、と考えております。過去のブレイクスルーの事例から考えたとき、ニュートンの運動方程式を知っている状態でAIに学習させると多分重力加速度gの値を極めて厳密に求めることはするでしょう。(続きます)
0
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
zy773 しかし、更に惑星規模対応の話をさせたとき、その状態から万有引力の式まで求められるかというと、それは無理であくまで「運動方程式の極限までの改良」にとどまるんじゃないかな?と。それがこの記事の発端の「論理的な思考」と「直感」の差異となるのでは?と考えております。
0
tarosuke @tarosukenet 2018年5月13日
だから「使えるだろうけどつまんない」んだよなー。
1
nbtnk @nbtnk 2018年5月13日
コレ逆の話で人間の直感ってそういう物でしょ?という話。脳内に乱数発生器があって無作為な行動してる訳じゃ無いよと。意識無意識問わず経験や学習によって精度上がる訳で。
7
七七四未満六四以上 @zy773 2018年5月13日
WAKUWAKUTAKKU 将棋の方では、Ponanza Chainerが【将棋のルールさえ教えず】旧verのPonanzaの棋譜と勝敗からディープラーニングで当時最強格の強さを得ました。elmoに負けましたが…。辛いのが、それまで最強であった歴代Ponanzaさえ超えるPonanza ChainerもAlphaZeroと同じディープラーニングを用いているのですが。絶対性能でも汎用性でもAlphaZeroに敵いません…。それほどディープラーニングにはポテンシャルがあるようです…。
1
水辺の人 @mizubenohito 2018年5月13日
mikumiku_aloha 人間でもどうしてこれを猫であり、猫以外(例えば犬)ではないと認識したのかを言葉で説明するのは難しいでしょうね。 昔の裁判官の言葉に「ポルノの定義は難しい。しかし、見ればわかる」みたいのがあって、ディープラーニングはそういった非言語的なモデルを取り扱えるという点でまさに人工の知能だと思いますわ。
1
七七四未満六四以上 @zy773 2018年5月13日
WAKUWAKUTAKKU 恥ずかしながら何を書かれているのか正確には分からないのですが。分かりそうな部分だけ返信しますと。現在、脚光を浴びているDL(ディープラーニング)は過去の膨大なデータから未知あるいは未来のデータを人間よりも正確に答えます。"惑星規模"のデータを与えれば"ニュートンの運動方程式"に等しい正確な結果を出すでしょう。ニュートンの運動方程式も重力加速度gも[理解]しないままに…。
0
七七四未満六四以上 @zy773 2018年5月13日
素人の放言ではありますが。 実は"論理的な思考"って他【人】に説明して納得してもらう為に必要なだけで。単に問に対して正確な答えを出すには十分な計算量の『直感』があれば良いだけなのかも…。
1
Masa Kid @kida_777 2018年5月13日
なんだっけなこの既視感と思ったら、ついこないだ発売になったよしたに @dancom さんの #新理系の人々 やった。いやー、我ながらお脳のストレージ性能がやばいなあw
0
あなたをこえたくて @EXPx2 2018年5月13日
まさかこの平成の末期になって勘ピュータという言葉が復活するとは思ってもみなかった
1
わい(ry @waidottowai 2018年5月13日
あぁなるほど。確かに「直感」だわな。
0
ビールクズ猫 @WAKUWAKUTAKKU 2018年5月13日
zy773 要点だけ述べると ニュートンの運動方程式、F=ma (または重力加速度の式 F=mg)から万有引力の式 F=G(Ma/r2) へのブレイクスルーのような「単純なデータの蓄積では不可能な、原理原則に基づいた新しい概念の追加による発展」はAIはさせられないでしょう、ということです。そしてこれが論理的思考そのものですよね。
1
mikumiku_aloha @mikumiku_aloha 2018年5月13日
現時点でのAIに深層学習による問題解決をさせるという事は、積極的にブラックボックスを作る行為になりかねないか
4
飴鼬 @hamada90579286 2018年5月13日
さて、どうだかね。興味深くはありますね。
0
とまとプリン @hirobumi_mmo 2018年5月13日
科学的根拠を得ずに答えを導き出す事を直感と呼ぶと考えればAI(ディープラーニング)は直感で問題を解く技術と考えられる
1
gryphon(まとめ用RT多) @gryphonjapan 2018年5月14日
直感といえば、格闘技、特に打撃系には「当て勘」という言葉があるのだけど、試合映像をディーブラーニングにずっと見せれば「ここでラッシュ!」とか「まず守ってけ」「今だカウンター!」とか、ベテランコーチより正確に支持する「セコンドAI」とかも生まれるのかな
3
腐ってもエビ🌈🕑もえこ…… @kusattemoevill 2018年5月14日
論理的証明が行えるかどうかの話で、①正答にたどり着けて証明も行えるケース、②正答にたどり着くが証明は行えないケース、③正答にたどり着かず証明も行えないケース、で分けてAIは②が得意だから“直感的”と言っているんだと思われる。この場合“論理的”とされるのは①
4
ちいさいおおかみ〜クリアカード編〜 @siu_long 2018年5月14日
kujira090 それが元ネタかどうか知らないけど、『宇宙の騎士テッカマンブレード』で、"本田の親父サン"が、そんな事を云っていましたねぇ。あの人一応技術者で、技術畑故に世間に疎かったけど。
0
ちいさいおおかみ〜クリアカード編〜 @siu_long 2018年5月14日
実はこの場合、正しい漢字を用いるなら、"感"ではなく"勘"を用いた方が、より判り易いのではないかと思われるが。
0
のりしあん @noricyan2 2018年5月14日
コンピュータでの文字解析で、人が読めない文字も読める例とか出すとそれはおかしいとか言われたもんだ。
0
skerenmi @skerenmi 2018年5月15日
うーん? 仮説検証ってプロセスだされると、仮説は直感、検証は論理って感じたけど、AIに仮説を立てるなんてなく検証から始める気がするんですが
0
どうぐや🍲 @1098marimo 2018年5月19日
れがAIのニュースでよく言われてる「最適な答えは出せるがその理由は説明できない」ってことなんだろうね
0