ベストセラーでも内容は全部ウソ…? 大量に発生する「フェイク・ブック」の正体
コメント
選択しているユーザー
ハルシネーションを抑制するプログラムをOpen AIが発表されていましたね。
https://openai.com/research/improving-mathematical-reasoning-with-process-supervision
単に正しい結果に対して報酬を与えるoutcome supervisionではなく、正しいプロセスに報酬を与えるprocess supervisionに報酬を与えることで、人の論理的思考のようなプロセスを踏ませる、みたいなことが書かれています(専門家ではないので正確さは保証できません、このコメントこそフェイクかも)
ただ真似するだけじゃなく創作するのがChat GPTの仕事ですし、正確さだけを追求して面白さだけが損なわれるのも違うし、そうはならないだろうと思います。だとすればやっぱり使う側が賢くならないといけないですね。
注目のコメント
かなり論旨が整っていて見分けづらいフェイクニュースが生成できるのですね。徐々にフェイクニュースの悪影響が現れてきたことを痛感しました。
ファクトチェック技術の開発が急がれます。二次創作なら原典と比較することも出来ますが、完全に新たなストーリーを創作されると検証が難しいです。事実が存在しないことを検証しなければなりませんから。
著者明記は一つの手段ですが、他人と偽ることもできますし、著名人でなければ信頼性を測るのは難しいでしょう。悩ましい問題です。ChatGPTが登場して以降「ハルシネーション(幻覚)」という言葉を頻繁に見かけるようになり、その危険性を訴える内容の記事。
ですが、意図せず誤情報を生成してしまうAIの特性「ハルシネーション」と、悪意を持ってそれを生成させる人間の特性「フェイク」とは本質的に異なるはずです。これは人間の執筆物であっても同様で、「誤筆」と「不正」との間には大きな隔たりがあるもののはずです。
たしかに現段階の生成AIには、誤情報が流布されてしまう危険性はあるものかもしれませんが、生成物を検証・検閲するためのAIモデルなどの研究成果も多く発表され、ハルシネーションの撲滅に向けた前進がある一方で、人間の悪意によるフェイクを検閲することは簡単ではありません。
それを踏まえてこの記事について個人的に思うのは、それらの違いなくAIをフェイク製造機かのレッテルを貼るような雰囲気が感じられてしまうのと、またそうした本来的には人間のモラルを問うべきフェイクの問題を、AIのハルシネーション側に求めているところが感じられ、本質的な問題の解決につながっていないようにも感じられました。
そして「ハルシネーション」ではなく「フェイク」によって意図的に創作した記事によってAI=リスクという情報を流布すること、しかも多くの被害者が出た大惨事をテーマに取り上げていること、それ自体はモラルに反することではないのか、ハルシネーション以上に問題であることではないのか、個人的にはかなり疑問が残っているところです。フェイクは今までにもありました。
ですが、もともとの本は作ることに手間もコストもかかるため「経済効率」が悪く、それが抑制力となっていた面もあります。
デジタルのみの世界では、変動費ゼロかつ生成AIにより固定費もほぼゼロとなり、フェイク・ブックも、著作権を無視したものも、無制限にでてきてしまうかもしれません。