ChatGPTのヤバさは『論理処理』だと思ってたことのかなりの割合が『多量の学習による確率過程で解決可能』ってわかったことではないか

勘だけで作ったまとめ
97
まつさか :checked: @ma2saka

勘でやってることを論理でやってると自分で勘違いしているところもけっこうありますよね。人に説明したり文書化するときになってはじめて、この論理を適用できるかどうかの判定って自分はどうやってるんだ、とわからなくなることが稀に頻発...。 twitter.com/kis/status/161…

2023-01-09 09:46:01
きしだൠ(K1S) @kis

ChatGPTのヤバさというのは、論理処理だと思ってたことのかなりの割合が多量の学習による確率過程で解決可能ってわかったことなんだよな。で思い返すと実際にぼくたちはだいたい勘でやってて最終的にあやしいとこだけ論理確認をしている。

2023-01-09 07:56:48

そうでもないのでは

ツイリスナア @TWlistener999

いやChatGPTの結果って、論理展開の文章構造的にはまともなのに、中身の論理は滅茶苦茶なのが頻出してるでしょう それが一定の割合で成立するのは単に参照元データベースが論理処理された文章だからというだけなのでは twitter.com/kis/status/161…

2023-01-09 16:04:51
きしる🌈🐟なお🏳️‍⚧️ @xylnao

論理とは経験則から抽象したものなので、これはトートロジーでは。という以上のことを論じるには何を学習し、過学習しないようにしているかを見るしかないような。 twitter.com/kis/status/161…

2023-01-09 17:01:05
Jun Harada @hrjn

ChatGPTが論理的な感じがするのは、A->BかつB->CならA->Cみたいな推論関係を確率過程から出せることなんだけどそれは当たり前なんだよね。一番ありそうな答えを返してるわけで。 問題は複数あって、ひとつはABCが満遍なく嘘なことがあることと、必要十分か(MECEか)がよくわからんとか色々ある。 twitter.com/kis/status/161…

2023-01-09 09:20:35