【解剖】なぜ、AIの文章は「浅く」見えるのか
NewsPicks編集部
529Picks
コメント
注目のコメント
生成AIが一般論を語りがちで、体験談やロジックが苦手なのはその通りですね。
ただ、対話を通じて粒度を細かくしてゆくと、だんだん具体的な解像度の高い話しになってゆきます。そこにヒントを得て自分で書くのが良さそうです。なるほどと思わせることは多いですから。
もっとも生成AIは作話が得意です。対話の解像度を上げてから「具体的な企業名や業務内容を設定して、体験談として短いストーリーを創作してください」と頼めば、体験談のようにロジカルに語ってくれます。
なのでこの記事はやや違和感がありました。言葉に「知性」を感じるとは、どういうことなのか。
今回、ChatGPTに2つほどの例題を出したとき、その回答の瑕疵が、私にはすぐにはわかりませんでした。とくにハッとさせられる部分はないけれど、ちゃんと答えてあるし、問題はないのでは……?と。
この「ハッとさせられる部分がない」という点が、単に「いまいち面白くない」ということ以上に、根源的な問題をはらんでいることを、明快に解説してくださったのはベストセラー『頭のいい人が話す前に考えていること』の著者、安達裕哉さんです。
ひるがえって、自分たちの言葉に「知性」は宿っているのか、改めて振り返るきっかけになるインタビューです。ChatGPTは世の中の縮図、というか一般的にどう思われているかを知るには便利だなと改めて思いました。おそらく「解像度の高い実例」を語れないのは、「解像度の高い実例」が世の中に出回っていないことの裏返しなんでしょうね。