米当局、オープンAIを調査 個人の評判巡るリスクへの対処巡り
コメント
注目のコメント
ワシントンポストの記事がソースみたいです。
https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/
「FTCはOpenAIに対し、同社製品が人々について「虚偽、誤解を招く、軽蔑的、または有害な」発言をしているとして受け取ったすべての苦情について詳細な説明を提供するよう求めた。」
消費者保護の観点で以前から警告を発していたようです。これに対してOpenAIは、データが他人に公開されたユーザーの数は極めて少ないと表明しています。
データセットに個人情報が含まれ学習してしまったのは間違いないでしょう。それを訓練で止めていましたが、完全ではなかった。ChatGPTの本質的な問題なので、解決には多大な手間がかかります。OpenAIは正念場かもしれません。風評被害は、複数の要因が重なって起こるので、総合的に取り組む必要がありますね。
1. 情報の不確実性(情報の源)
2. メディアの影響 (情報の送り手)
3. 個人の先入観 (情報の受け手)
> オープンAIの製品が個人の評判などを傷つけ、「風評被害」を招くような不公正な慣行に従事していないか調べている英語だと生成型AIが嘘をつくことをハルシネーションと呼んでいます。OpenAIが誤った情報を出して個人の風評被害を働きかけているかの調査が入るようです。
> オープンAIがどのようにAIモデルに絡むリスクに対処しているかに関し記録を提出するよう要求。
記録だけならまだいいですが、モデルの仕様や学習方法がリークされたら、ブラックボックスであるChatGPTの裏側が分かって大事になります。
ただ生成型AIを試した人なら分かりますが、AIの回答はランダムで一律ではありません。たとえ調査が終わって改善策を出したとしても、ChatGPTが風評被害をするともしないとも言い切れないのが生成型AIだと思います