ChatGPTは基本、「アウトプットが正しいかどうか判断できる」人しか使えない。

以下のツィートへの反応をまとめました。 「ChatGPTは基本、「アウトプットが正しいかどうか判断できる」人しか使えない。ということは専門家はますます楽が出来て、専門家じゃない人との格差が拡大する。AIっていうのは本当は専門知を誰もが簡単に使えるようにして格差の縮小に働くことが期待されていたがChatGPTは真逆に働いている。」 https://twitter.com/Yh_Taguchi/status/1614244013774868481
63
前へ 1 ・・ 10 11 次へ
clotho0410 @clotho0410

DeepLとかも、翻訳があってるかどうか自分で検証できる人にしか使いこなせないのと同じ… twitter.com/yh_taguchi/sta…

2023-01-16 16:45:27
田口善弘 @Yh_Taguchi

ChatGPTは基本、「アウトプットが正しいかどうか判断できる」人しか使えない。ということは専門家はますます楽が出来て、専門家じゃない人との格差が拡大する。AIっていうのは本当は専門知を誰もが簡単に使えるようにして格差の縮小に働くことが期待されていたがChatGPTは真逆に働いている。

2023-01-14 21:52:18
burabura @burabura_117

まぁ機械学習全般が昔からずっとそうですからねぇ twitter.com/Yh_Taguchi/sta…

2023-01-16 17:00:18
シン・ホネキング @honeking

そうだよな。自動翻訳だってウェブブラウズに使うくらいならいいけど、翻訳結果を仕事や重要な判断に使う場合は結局は原文を自分でも読める人が読む速度を上げるための補助ツールとして使うのがせいぜいで全く読めない人が使ったら結構な確率で痛い思いをすると思う。 twitter.com/Yh_Taguchi/sta…

2023-01-16 17:21:26
はぐ @haghag1203

「Wikipediaに書いてあるから本当!」が今度は「ChatGPTが言ってるから本当!」になるのかな twitter.com/yh_taguchi/sta…

2023-01-16 17:26:48
塚口あおい @H_4intoE_8

翻訳ですら翻訳先言語の知識がある程度あったほうが確実だし最早そういうものって感じよね twitter.com/Yh_Taguchi/sta…

2023-01-16 17:45:13
tos⛩ @tostantan

>「アウトプットが正しいかどうか判断できる」 Google翻訳あたりもそう 驚くほど変な翻訳になってる英文を送るひとがいるんだよね… ChatGPTにせよ、有用なアウトプットを引き出せるように、AIが理解しやすいコマンドで指示をだせる能力が必要で結局「わかってる人」じゃないとあかん twitter.com/Yh_Taguchi/sta…

2023-01-16 17:49:39
じょうどろ🌈🕊️ @Japanese_Rover

某勲章ゲットした科学者先生が、情報処理はコンピューターがやってくれるようになるから最後は信頼できる人的ネットワークを構築できるかが肝だ、というようなことを言ってたが、その通りであるなぁ。 twitter.com/yh_taguchi/sta…

2023-01-16 18:44:28
hosodamakito🛡️ @hosodamakito

@Yh_Taguchi そのような用途であればAIを教育するのは専門家でなければなりません 専門家が正しい情報を選別して与えればAIは正しい情報を返すようになります そのようなレベルのAIを何でも答えられる用途で作るのは非常にコストがかかります ChatGPTは安価だが質の低い情報を使っているので専門知識はありません

2023-01-16 18:49:21
hosodamakito🛡️ @hosodamakito

@Yh_Taguchi 人間の知能は基礎的な知識から演繹的体系的に情報を取捨選択できるので、質の低い安価な情報からでも知識を抽出できますが、AIは基本的にパターンマッチ以上のことができないので、生徒が(情報を与える)教師を超えることはありません それができたらシンギュラリティです

2023-01-16 18:56:34
きゅうはち @ksaka98

これウィキペディアもそうなんよね。とはいえ、「たまに正しくないとしても知らないままよりはマシ」で、そこは「たまに」と「マシ」の比率によるんだけど、その「たまに」と「マシ」の周辺で悪意が入り込むとやっかい。 twitter.com/Yh_Taguchi/sta…

2023-01-16 19:00:14
コマースデザイン坂本悟史 @CommerceDesign

@Yh_Taguchi @hibukuro 「正解がない領域」であれば、AIの雑な提案が、叩き台や呼び水として機能して、判断スピードを上げる効果があるかもしれません! ただ、結局は「雑な提案からヒントを得る能力」が問われますね・・

2023-01-16 19:06:50
りゅー @31415926five

専門家といっても自分の結論でダメージを負う立場になければ(=意思決定の最前線にいなければ)正しさよりもイデオロギーに準拠した結論を出すし、そういった人々の言葉が無視されるようになるだけだろう。 twitter.com/Yh_Taguchi/sta…

2023-01-16 20:21:05
けろち @kaerukun365

ネット検索は基本、「検索結果が正しいかどうか判断できる」人しか使えない。ということは情報格差が拡大する。 どかーん! twitter.com/Yh_Taguchi/sta…

2023-01-16 20:40:30
けんし📡⚡️@電気通信エンジニア @engineer_deer

その通りですね。 ググるのを楽にして真偽(出典)を判断しにくくした感じなので、飲み会の席とかで楽しむくらいしか今のところ使い道が思い付いてないです。 twitter.com/Yh_Taguchi/sta…

2023-01-16 20:45:29
🐞虫の提督🐜 @Insects_Admiral

基本的に機械化っていうのは 「大体誰でも触れるが、何かあった時にはその知識がある人でないとどうにもならない」 というのが根底にあって、AIでそれが顕在化してきてる気がする。 twitter.com/Yh_Taguchi/sta…

2023-01-16 21:07:53
たくチャレ @takuchalle

翻訳サービスが出た時も似たような話があったよね。出力された英語が正しいのか判断できないから痛い目合う、みたいな。 twitter.com/yh_taguchi/sta…

2023-01-16 21:12:04
鈴木 宏尚 @hrnszk

その通りだと思う。誰もが専門知を使えるようになるのは、人類がAIに絶対的な信頼を持てることが条件になるのかな。専門家がテストして資格を与える、とか。 twitter.com/Yh_Taguchi/sta…

2023-01-16 21:15:49
徳満 直杜 | Naoto Tokumitsu @naoto_tokumitsu

これは確かにそうでして、例えばDeepLみたいな翻訳ツールでも若干のニュアンスの違いがAIでもあるのでアウトプットの正誤を検索者が判断できるのが前提。判断できないならAIとかネット情報より有識者や専門家に頼るしかない twitter.com/yh_taguchi/sta…

2023-01-16 21:25:13
kojix2 @2xijok

ChatGPTは人間を上手に使った炎上ラーニングみたいなことはまだできないかもしれません…。 twitter.com/Yh_Taguchi/sta…

2023-01-16 22:26:41
黒木ヨウドウ @yowdow

ほんそれ。AIが「すごくそれっぽいもの」をアウトプットしてくるので、知識がないと判断ができない。 twitter.com/Yh_Taguchi/sta…

2023-01-17 01:58:28
前へ 1 ・・ 10 11 次へ