「AIが嘘をつく」という人は、そもそもAIの使い方が間違っている!? ――生成AI/人間、多数決/価値判断、匿名情報/責任主体

大流行の「ChatGPT」。しかし、「AIが嘘をつく」という人もいます。それに対し、そもそも「AIの使い方が間違っている」という、まとめ主の考察を展開していきます。 「生成AI」の実体は、確率的に言葉を並べる統計マシンなので、真偽を保証できるような責任主体ではなく、むしろ検索エンジンや匿名掲示板などの無責任な情報だと思って接した方が良い、という趣旨です。 さらに、法律や政治、教育やメディアなど、いろいろな分野の話を絡めて、話を展開していきます。
5
しろうと @sirouto

togetter.com/li/2149086 「成田悠輔 × 落合陽一」対談 「ChatGPTの進化と今後の日本」の感想 ――「デジタルネイチャー」のゴリラは、炎上した森の夢を見るか?(前回まとめ)

2023-05-20 23:21:14
しろうと @sirouto

youtube.com/watch?v=7qr39O… 【AI進化どこまで】便利か脅威か… 論文書かせる学生も? 専門家が教える「ChatGPT」便利な使い方とは 『バンキシャ!』(2023/04 日テレ)

2023-05-20 23:22:08
拡大
しろうと @sirouto

日テレ「バンキシャ!のキャスター・桝は、AI研究家でプログラマーの清水亮さんを訪ねた。 桝 「ChatGPTというのは、分からないことがあったら、聞いたら正しい知識を出してくれるっていうイメージだったんですけど」 清水さん 「それはまったく間違いです」」(上記引用)

2023-05-20 23:23:38
しろうと @sirouto

大流行の「ChatGPT」だが、「使い方が間違っている」と思われる事例を、ネットでよく散見する。そこでは、「ChatGPTが嘘をついた」などというが、そもそも「正しい知識/判断」を得ようとして、生成AIに質問するのは間違っている。では、どう使えばいいのか? 以下で詳しく説明していこう。

2023-05-20 23:26:52
しろうと @sirouto

「ChatGPT」などの「GPT」シリーズは、「確率過程」モデルに基づく、言葉の統計マシンだ。なので、命題の「真偽」を問うのは、使い方として不適切なはず。たとえば、アンケートのように、多数派(言葉の多数決)の考えを聞くのに使う方が適切だろう。

2023-05-20 23:37:58
しろうと @sirouto

すごく難しい数学の問題や、マイナーな芸能人の情報を、アンケートで聞けば、「間違っている方が多数派」という場合もあるのは分かるだろう。それと同じことで、生成AIの返答は、「多数決」による「一般論」だと思った方がいい。

2023-05-20 23:40:07
しろうと @sirouto

「ご飯を」→「食べる」という言葉が並ぶ確率の方が、「ご飯を」→「歩く」という確率よりも、圧倒的に高いので、前者が出力される。……という風に、生成AIは「言葉の多数決」を取るための統計マシンであって、命題の「真偽」を正確に推論するマシンではない。

2023-05-20 23:43:00
しろうと @sirouto

もちろん、生成AIが科学的に正しい答えを返す場合も多々あるが、それはたんに学習元で多数派の情報だったからであって、常に正しく答えられるわけではない。繰り返せば、「真偽」ではなくて、「(言葉の)多数決」で出力が決まる。

2023-05-20 23:46:13
しろうと @sirouto

だから、生成AIは「検索エンジン」の延長線上で使うのが、適切だと個人的には考える。たとえば、「検索エンジンが嘘をついた」とは言わないはずだ。検索エンジンは、記事を集める道具であって、文章の「責任主体」ではないから。文責は個々の記事の作者にある。そう理解して検索しているはずだ。

2023-05-20 23:48:57
しろうと @sirouto

だから、生成AIの返答は、検索エンジンでヒットした記事と同じように、文章の真偽(や善悪)が正しいという責任までは、保障してくれないと考えるべき。あるいは、SNSでの「匿名」の言葉と同じで、「無責任」なものだと考えるべき。

2023-05-20 23:52:10
しろうと @sirouto

では、AIに意味がないのかといえば、ある。統計マシンである生成AIは、統計的な「平均」まで、一気に引き上げてくれる。いわば「学習の高速道路」として使える。だからたとえば、自分が無知な分野で、検索ワードを得るために質問するとか、入口で使うのは良い。出口(結論)は自分で判断すべき。

2023-05-20 23:55:32
しろうと @sirouto

youtube.com/watch?v=7msBSb… 音声で被告人に質問も… 機械は人を裁けるか? 日本初“AI裁判” 未来と残る課題 (2023年5月15日 ANN)

2023-05-21 00:11:58
拡大
しろうと @sirouto

上の動画は、あくまで模擬的なイベントだが、「AIに裁判させよう」というのは、時期尚早に思える。今まで述べてきたように、生成AIは統計マシンであり、「真偽」「善悪」を判断して返答するわけではないからだ。単純化して言えば、匿名にアンケートして、判決することに近い。

2023-05-21 00:14:48
しろうと @sirouto

itmedia.co.jp/news/articles/… 弁護士ドットコム、ChatGPT活用「チャット法律相談(α版)」試験提供 まずは男女の問題から(2023年05月16日 ITメディア)

2023-05-21 00:16:16
しろうと @sirouto

現状の技術水準でなら、生成AIの利用は、「法律相談」くらいに留めるべきだと、私は考える。過去の判例から統計的にはどうか、という所までは言えても、価値判断が絡んだ決定にはリスクがある。

2023-05-21 00:18:34
しろうと @sirouto

以前、ITエンジニアの人と話した時に、その人は裁判をAI化できると確信していた。どうも、裁判は過去の統計から判決するもの、と考えているようだ。

2023-05-21 00:20:58
しろうと @sirouto

しかし、実際の判例を調べていくと、たとえば「日照権」が初めて認められた最高裁判決などは参考になる。

2023-05-21 00:22:44
しろうと @sirouto

smbiz.asahi.com/article/146040… 【何の日】 50年前、最高裁が初めて 「日照権」認める判決 | ツギノジダイ(2022.06 朝日)

2023-05-21 00:24:07
しろうと @sirouto

「裁判では日照権侵害を訴えた原告の敗訴が相次ぎ」と記事にあるように、それまで敗訴していたのを、最高裁がひっくり返したのだから、たんなる多数決や統計的判断で決まっているのではない。AIを法律分野に使おうとする時に、ここに多大な注意が必要になる。

2023-05-21 00:26:39
しろうと @sirouto

また、教育やメディアの分野についても、言及しておこう。生成AIの情報源は、人間の文章を学習しているのであって、無から無尽蔵に湧き出てくるのではないことに注意が必要だ。情報版の「永久機関」や「フリーエネルギー」ではない。

2023-05-21 00:31:06
しろうと @sirouto

これは極端な例だが、かりに「情報源は全部AIでいいや」と、出版や大学やマスコミが全滅したとしよう。すると、学習源が絶たれた、生成AIの情報は進化が止まってしまう。「ビッグデータは21世紀の石油」というような話があるが、AIにも資源は必要になるし、枯渇する可能性もある。

2023-05-21 00:34:15
しろうと @sirouto

ところで、これは「インデックス投資」に似ている構造だと思う。もしかりに、株式投資家の全員が、インデックス投資していたとしよう。すると、一人だけ抜け駆けして、個別株に投資すれば、大きく利益を得られる。じつは、インデックス投資家は、個別株投資家の競争に「フリーライド」している。

2023-05-21 00:37:31
しろうと @sirouto

全部の情報源が生成AIになってしまうと、環境問題などにも見られる「コモンズの悲劇」が生じて、前提が破壊されてしまう。これは、文章でも画像でも同じだ。画像生成AIの画像だけになると、新しい絵柄が出てこなくなる。

2023-05-21 00:40:36
しろうと @sirouto

だから、生成AIで生じた利益を、文章でも画像でも音声でも、著作権者に還元する仕組みは、何かしら必要だろう。もし、人間の著作権者が激減すれば、AIの学習元も枯渇してしまい、文化が停滞するから。

2023-05-21 00:44:37
しろうと @sirouto

その制度論には、ここでは深入りしないが、たとえば、「私的録音録画補償金制度」に似た仕組みは想定できる。具体的には、半導体に税金(補償金)を掛けて、著作者(団体)に還元するとか。もちろん、非常に複雑な権利問題だから、最後は専門家の議論になるだろう。

2023-05-21 00:50:48