人工知能アイディアまとめ

最近考えた人工知能のアイディアをまとめた.人間っぽい振る舞いをする人工知能というよりも,人間の学習アルゴリズムをシミュレートする目的で人工知能を創りたい. 他の方からの関連ツィートも取り込むようにしてますが,もし問題があるようでしたら外しますのでご一報ください.
人工知能
9
Yuyu @yuyu_de_gozaru
そうだ、人工知能を作ろう! 人口無能ではなく、文字通り、人工知能を!! で、Twitterのbotとして活躍させよう!
Yuyu @yuyu_de_gozaru
昼につぶやいた人工知能プランをいろいろ考えてみた。人間が言葉を学習する場合、書き言葉より話し言葉を先に覚えるわけだから、感覚刺激(五感)と感覚刺激(聴覚)の多対多対応という対応付け情報を蓄積することになる。
Yuyu @yuyu_de_gozaru
しかし、テキストベースで学習せざるを得ない人工知能は、言語とそれに対応する感覚刺激を見い出すことができない。人工知能に目がないからだ。
Yuyu @yuyu_de_gozaru
ある言語を学習したら、人工知能にGoogle画像検索をさせ、対応する画像を記憶させる方法も考えたが、そうなると画像解析の仕組みを入れなきゃならんので、そんなの実現したら、それだけで飯が食える研究者になっちゃう(笑)
Yuyu @yuyu_de_gozaru
ありがちな人工知能の構造としては,簡単に言うと,日本語の文法や単語を予めできる限りたくさん扱えるように物量的にプログラムしておいて,ユーザに話しかけられた際,その発言を文法的に処理し,既有データベースと単語情報を照合して,関連する話題を返す.
Yuyu @yuyu_de_gozaru
先に述べたシステムなら,まぁ,データベースさえしっかりしていれば,それなりに面白い反応を返すプログラムになるんだけど,それはいわゆる「人口無能」というやつで,人のようにしゃべりはするけど,脳があるわけじゃないプログラムと言われる.
Yuyu @yuyu_de_gozaru
しかも,反応の面白さが「そこそこ」止まりなのは,ユーザの発言が文法的に綺麗に処理できないケースが多いことも影響している.教科書みたいな綺麗な発言をする人間はむしろ稀だ.
Yuyu @yuyu_de_gozaru
そして,初めから日本語の文法の処理機能を持っていたり,単語データベースを持っていたりというのは,如何にもコンピュータプログラムという感じである.
Yuyu @yuyu_de_gozaru
ここはひとつ,教育を多少なりとも勉強している身として,人間の赤ん坊が持っているであろう原始的な「学習能力」のモデルを,ちょっとコンピュータ風にアレンジして搭載するだけに留め,その学習能力で,人工知能が日本語を習得できるか試してみたい!
Yuyu @yuyu_de_gozaru
そう,まさに自己成長するプログラムを作ってみたいのだ! そのためには,日本語の文法処理を如何に行うかを考えるのではなく,如何に自己変化するプログラムにできるか,ということを考えたい.
Yuyu @yuyu_de_gozaru
で,このような人工知能の仕組みを実現するために,どうしても解明しておきたいことは,人間が「抽象」あるいはその逆に「捨象」するメカニズム.どういう規則で人間は本質を見抜くのか,あるいは,異なる事象間に共通性を見出すのか.これが学習の1つの鍵だと思うんだよねぇ.
Yuyu @yuyu_de_gozaru
人工知能を創るとすれば,人工知能に「論理的思考力」を持たせる必要がある.ピアジェが示した児童発達の原理をある程度信頼するとすれば,子どもは大人が思う以上に論理的な力を発揮する.しかし,ながら,「論理」とは何か?
Yuyu @yuyu_de_gozaru
「科学的技術」と「科学技術」では随分印象が違って聞こえるように,「論理的思考」と「論理思考」をあえて区別する人もいる.人工知能の場合,論理思考を実装する方が簡単だが,人間の学習を模倣する観点で考えれば,あえて「論理『的』思考」を実装したい.
Yuyu @yuyu_de_gozaru
論理学的な観点で「論理」とは,推論結果が常に真であることが保障されるような型の三段論法の積み重ねであるケースが多い.しかし,人間が行う「論理的思考」というやつは,その限りではない.
Yuyu @yuyu_de_gozaru
アナロジー(類比,類推),アブダクション,インダクション(帰納)などなど,人間は必ずしもディダクティブ(演繹的)な推論ばかりをするわけではない.むしろ,幼い子どもであればあるほど,インダクティブな推論を通して学習する機会が多いだろう.
Yuyu @yuyu_de_gozaru
人工知能を実装する上での最大の問題は,人工知能がメタ認知できないことかもしれないなぁと思う.再帰的に自分の推論過程を修正するようなメカニズムを作れるだろうか?
Yuyu @yuyu_de_gozaru
まさに仮想哲学ゾンビって感じですね. RT @masaori1984: 哲学的ゾンビってやつでつね。 RT yuyu データベースさえしっかりしていれば,それなりに面白い反応を返すプログラムになるんだけど,それはいわゆる「人口無能」というやつで,人のようにしゃべりはするけど…
Yuyu @yuyu_de_gozaru
メタ認知って、どういう仕組みなのだろうか。学術的な定義はいろいろあるにせよ、そういう定義とは裏腹に、人間の認知って、メタになったりメタじゃなくなったり、曖昧なラインを遷移してる、ってのが現実なんじゃないかと思う。
Yuyu @yuyu_de_gozaru
先日、サマーウォーズがテレビ放映されていたが、あそこで描かれるような人工知能は、作るのが極めて難しい。
Yuyu @yuyu_de_gozaru
人工知能に知的好奇心を持たせるというのは、定義次第では難しくない。要するに、受け身学習じゃなくなれば良いのだから、思考中に情報が不足すれば自発的にググるようなAIにすれば良い。
Yuyu @yuyu_de_gozaru
先日からつぶやいてるように、AI設計上の問題は、知識ではなく、思考方法の成長だ。自分の思考プログラムを自発的に書き換えるというのは、PCの仕組み的にムズイ。(実行中のプログラムは上書きできないよう、OSがロックをかける)
Yuyu @yuyu_de_gozaru
そういうOSの制約を回避するための一例としては、コピー戦略。自分の一部を改良したコピーを生成し、そのコピーを起動させる。コピーの起動後、自分は実行を停止し、コピーによって削除される。
Yuyu @yuyu_de_gozaru
しかしながら、これはコンピュータウィルスの生存戦略に近いものがある。慎重にプログラムを組まないと、まぁ、ネットワークを越えて他人に迷惑を掛けるようなことはないにしても、成長アルゴリズム次第では、自分のハードディスク容量を指数関数的に食い潰すことになるかもしれんw
Yuyu @yuyu_de_gozaru
人工知能の成長アルゴリズムで最大のミソは、如何に帰納的な推論をするか、かもしれない。コンピュータが、そもそも演繹的な処理をするように設計されていると言っても過言ではないからだ。
Yuyu @yuyu_de_gozaru
帰納的推論をするには、事象から特徴量の抽出が必須。人間的な表現で言えば、「抽象化能力」や「捨象能力」が必須なのである。人間は、どういう仕組みで事象間の類似性を見出すのか?
残りを読む(65)

コメント

コメントがまだありません。感想を最初に伝えてみませんか?

ログインして広告を非表示にする
ログインして広告を非表示にする