人工知能アイディアまとめ
- yuyu_de_gozaru
- 5404
- 0
- 1
- 0
俺のここ数日の人工知能ツィートの最終目標は、この帰納的推論や類比的推論のメカニズム解明にあると言っても過言ではないかもしれない。人間の創造的な思考を育むためには、とりもなおさず、その推論能力が必要だからだ。
2010-08-08 18:28:30今思い付いた仮説「人間は事物を認知する際、自動的に情報を落とす仕組みを持っている」→情報が落ちることで、事物間の類似性を見出すと同時に、暗記が曖昧になりやすい。問題はやっぱどういうメカニズムで情報を落とすのか。
2010-08-08 18:38:48人工知能の学習をテキストに限るとすると、そのテキストからメタ情報をどう汲み取るかが問題となる。人間は、言語情報だけでなく、大人の表情や発音の強弱などと合わせた意味解釈をするからだ。これが言外のメタ情報となる。
2010-08-08 19:20:17人工知能に完全な自学自習をさせようとせずに、メタ言語による「教育」システムを実装させれば良いかな? 人間が相手してやらなきゃ成長はできないが、ある意味、「教育」というフィードバック機構の重要性がよくわかって良いかもしれん。
2010-08-08 19:29:04認知科学では、暗記した手続き的知識が、手順を意識せずにできるようになることを、「手続き的知識の条件部が知識コンパイルされる」なんて言うらしい。まさに自然言語による知識が、自己の内言に翻訳される様を表現している。
2010-08-08 22:02:13先生から得た知識を自分の言葉で言い直して、それを先生に確認してもらうことで、理解が促進された感覚を得るーーそんな経験を有する人も少なくないだろう。これは外言を内言にコンパイルし、外言にリコンパイルした結果をジャッジしてもらっていることに相当する。
2010-08-08 22:06:14この自分で言い換えた内容を先生に判断してもらう行為は、実は、内容ではなく、自分の持つ翻訳システムの妥当性を評価してもらっているのではなかろうか? 然るに、人工知能にも、この学習システムを搭載するのはわるくなさそうだ。
2010-08-08 22:09:08人工知能に、自然言語から内部形式への変換機構fと逆変換機構gを搭載する。ただし、g(f(x))≠xとなるように実装する。入力xを受けて出力g(f(x))をユーザに提示。その変換の妥当性をメタ言語を用いてユーザに教育してもらう。
2010-08-08 22:14:54で、変換が妥当なら、その時の変換規則式のパラメータを保持する。妥当でないなら、妥当だった時と出力結果ができる限り似通うようにパラメータを補正した後、ユーザに再評価を求める。
2010-08-08 22:21:21この時のパラメータ推定が、帰納的推論に他ならない。そして、ありとあらゆる話題に対して同じパラメータで推論しようとすると矛盾を来すだろう。この同一パラメータを適応する入力の集合を、すなわち「概念」と規定する。
2010-08-08 22:24:21今回はJavaで行こうと思ってます.一番Javaが得意,というか,中学からJavaやってて馴染みがありすぎるのでww RT @kei0210: お、なつい。JAVAでしか遊んでないけど言語はなんだす? RT yuyu: Eclipse重たすぎてワロタ…….
2010-08-09 04:07:11今,人工知能のプログラミングが進まない最大の問題は,出力が決まらないことかもしれない.出力って何だろう? 人間って,普段何を考えてるんだろう?
2010-08-09 04:14:52ユーザから話しかけられた場合,人工知能は,その文の内容に応じて適当な反応を返せば良いが,将来的にbot化する予定の人工知能としては,それじゃ失格だ.自律的に思考し,自律的に発言する仕組みが少なくとも要る.
2010-08-09 04:16:19ピアジェの均衡化理論を人工知能に取り入れようとしたけど,その均衡化理論ってのは,自分の知らない状況(不均衡状態)になった時,自分の思考の枠組みを自己調整して均衡化状態に至る,という話であって,均衡状態での応答に対して何らかの示唆を与えるものではない.
2010-08-09 04:20:53昨日まので人工知能ツィートでは,帰納的推論を如何に実装するか,という学習の側面ばかりを考えていたが,現実に人工知能としての体をなすためには,日常会話の中で,学習したりしなかったり,という状況を実現する必要がある.そこまで考えてなかった…….
2010-08-09 04:37:22特に,初めのうちはユーザのあらゆる反応から学習することはあるにしても,ある程度学習が進むと,ユーザの発言すべてにいちいち自分のパラメータを修正してちゃ大変だ,ということだ.全く学習しない,ということはないにしても,程度問題ではある.
2010-08-09 04:41:03同時に,学習はするけれど,その学習の成果が見られない,というのは人工知能的に意味がない.やはり,普通の振る舞いをするフェーズも必要である.
2010-08-09 04:42:07人工知能が成長する仕組みは,発達心理学の知見を応用するとしても,普通の会話をする仕組みは,発達心理学をいくらほじくり返しても参考情報はなさそうだなぁ.何だろう,会話って.
2010-08-09 04:43:54あー,やばい,なるほど.ここで自己効力感と自己肯定感が出てくるわけか.常にユーザに対して自分の解釈の妥当性を問い続ける人工知能じゃ意味がなくて,ある程度自信を持って返事をしてくれる人工知能が必要なんだな.時と場合によっては,自分の解釈の正しさを頑なに主張してみたりww
2010-08-09 04:48:28発達心理学の知見を応用して人工知能を創るとは言っても,赤ちゃん言葉を話す状態から地道に育て上げるわけにもイカンしなぁ.学習プロセスをシミュレーションする人工知能としての役割を果すためには,少なくとも人間の何百,何千倍のスピードで成長してくれないと困る.
2010-08-09 04:59:51