ChatGPTは基本、「アウトプットが正しいかどうか判断できる」人しか使えない。

以下のツィートへの反応をまとめました。 「ChatGPTは基本、「アウトプットが正しいかどうか判断できる」人しか使えない。ということは専門家はますます楽が出来て、専門家じゃない人との格差が拡大する。AIっていうのは本当は専門知を誰もが簡単に使えるようにして格差の縮小に働くことが期待されていたがChatGPTは真逆に働いている。」 https://twitter.com/Yh_Taguchi/status/1614244013774868481
63
天原ワヤ/Amahara Waya @amahara_waya

@Yh_Taguchi 同感。現状のAIは道具に近い存在で、AIを道具や手段として使いこなせるかが生産・創造する上での鍵になる。パソコンを使える人とそうでない人で格差が生まれたように、AIを使える人と使えない人で新たな格差が生まれそう。

2023-01-14 22:56:26
豊福晋平 (GLOCOM/JDiCE) @stoyofuku

めっちゃ重要な指摘 twitter.com/Yh_Taguchi/sta…

2023-01-15 08:19:32
田口善弘 @Yh_Taguchi

ChatGPTは基本、「アウトプットが正しいかどうか判断できる」人しか使えない。ということは専門家はますます楽が出来て、専門家じゃない人との格差が拡大する。AIっていうのは本当は専門知を誰もが簡単に使えるようにして格差の縮小に働くことが期待されていたがChatGPTは真逆に働いている。

2023-01-14 21:52:18
一葦会白樺館(Ichiikai Shirakabakan) @shirakabakan

DeepLも同じ。 >>基本、「アウトプットが正しいかどうか判断できる」人しか使えない。 >>AIは……専門知を誰もが簡単に使えるようにして格差の縮小に働くことが期待されていたが……真逆に働いている。 twitter.com/Yh_Taguchi/sta…

2023-01-15 08:22:12
p_Kater @p_Kater

最近のAI(と呼ばれるけど実際にはIntelligenceを持たないただのMLだよね)を含むIT技術は不可避的に持つものと持たざる者の格差を広げる。機械化・工場化が進んだ18世紀みたいになるはず。大規模な社会保障拡大が絶対に必要。 twitter.com/Yh_Taguchi/sta…

2023-01-15 08:30:06
びとう @Bkmsp

これ、ChatGPTが言うことは絶対正しいという患者さんがChatGPTが生み出した誤った情報を信じ込んでたら大変そう。 twitter.com/Yh_Taguchi/sta…

2023-01-15 09:22:34
Toshitaka Kumagai @ttkkmg

@Yh_Taguchi 多かれ少なかれ、情報技術はそういう性質があると思う。Google検索でトップに来たものが正しいとは限らず、統計ソフトで間違った方法で処理した結果は正しくない。結局人間側のリテラシーが重要なことに変わりはない。 が、少なくとも現状のChatGPTは専門家が使用してさえ有用かどうかは大いに疑問。

2023-01-15 09:28:14
tanoC ureC @tanoc_urec

正しいかどうか判断できる人しか使えないというのは、大学の講義やTV、新聞、書籍など、何でもそう。最近は知らないことを知らないと言うようになってきたし、徐々に良くなると思う。コーディングのようにその場で正誤を検証できる分野や英文校正などでは無類の強さを発揮し確実に格差が縮小している。 twitter.com/Yh_Taguchi/sta…

2023-01-15 09:32:03
富士見坂 @Te393098

暗記知識と基礎学力の定着が必要ってことがわかって、それはそれで良かったと思います。 twitter.com/Yh_Taguchi/sta…

2023-01-15 09:41:32
Burggarten @burggarten

確かにそうですね。 この前は***という問題にChatGPTはxxxという答えを出したが、この答えの間違いを指摘せよ、というレポート課題を出した。理解度のチェックとChatGPTの乱用への牽制を込めて。 twitter.com/yh_taguchi/sta…

2023-01-15 09:55:01
Nari @ForcebewithUs

@Yh_Taguchi メーカーなんかで進んでいる「外注」に関わる問題と同様の事が起きそうです 外注しても良いのは本来‘自分自身が分かっておりその気になればやれる事’だけの筈なのですが段々そこを軽視して丸投げする様になり アウトプットの品質を判断出来ず且つ空洞化して組織知が乏しい組織になって行くのがオチで

2023-01-15 10:04:44
大橋 穣二/『英文構造マンダラ(仮)』鋭意執筆中 @George_Ohashi

ChatGPT は私もあれこれ遊んでみているが、論理的な処理はなかなか優秀である(それでもときどき真偽が逆になることもあるが…)一方で、知識・情報的な面では当たり外れが大きく、とんでもない間違いを自信満々に語ることがある。その意味では「情報源のひとつ」くらいに思っていた方が安全なのかも。 twitter.com/Yh_Taguchi/sta… pic.twitter.com/vrGRZ4cMdP

2023-01-15 10:12:11
拡大
拡大
拡大
拡大
高見知英 @TakamiChie

AIというものは常にそういうものだったし本来もそういうものだったかなと。 AIはコンピュータに「なんとなくこう」という判断を可能にする技術。最終的な決裁を行うのは常に人。 twitter.com/Yh_Taguchi/sta…

2023-01-15 10:20:32
しるばー @imas_silver

これめっちゃわかる。。とはいえ限られた分野をインプットしたら基礎的なことは出来るんじゃないかと思ったり。事務系とか税関係とか。 twitter.com/Yh_Taguchi/sta…

2023-01-15 10:27:26
たづK @taz8

現状ではまったくその通りだと思います。デタラメが混じっている点を見抜けるかどうかが最大のポイント。文章表現や言い方は参考になるのですが。 twitter.com/Yh_Taguchi/sta…

2023-01-15 10:32:41
水島六郎 @mizloq

《AIっていうのは本当は専門知を誰もが簡単に使えるようにして格差の縮小に働くことが期待されていた》 そうだったのか… twitter.com/yh_taguchi/sta…

2023-01-15 10:36:24
AXION @AXION_CAVOK

「嘘を嘘と見抜けない人は〇〇を使うのは難しい」のバージョンが一つ増えた(^_^;)。 twitter.com/Yh_Taguchi/sta…

2023-01-15 10:45:18
しばこうすけ @Kosuke_dazo

確かに田口先生のおっしゃる通りなのだが、専門知に誰でも簡単にアクセスできるとしても、今必死になってない人は専門的な知を得たいと思ってないわけだから、ChatGPTの抱える問題として捉える必要はないと思う。 twitter.com/yh_taguchi/sta…

2023-01-15 10:46:08
レイ@毎日がロードムービー @wagonthe3rd

AI って基本的に人間(あるいは人類)の外部記憶として書籍の発展形やから、活用するにはリテラシーが要る。 twitter.com/Yh_Taguchi/sta…

2023-01-15 10:49:23
肥前文俊 ライトノベル作家 @Hizen_h

AIは補助輪であって、それ単体で動けるわけじゃないのよねー あくまでもドライバーの運転技術が第一 twitter.com/Yh_Taguchi/sta…

2023-01-15 11:12:12
Guardian-reading wokerati @suzuky

90年代なら「いやいやこれから進化するから」と楽観的になれただろうけど、グーグル検索の現状を考えるとうーむそうかもという気持ちに… twitter.com/Yh_Taguchi/sta…

2023-01-15 11:12:44
TMT @TMT62232770

今ならAIの回答をSNSにぶん投げればある程度検証可能かと思う AIとSNSの合わせ技はかなり強力だと思う twitter.com/yh_taguchi/sta…

2023-01-15 11:29:16
1 ・・ 12 次へ