• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

米当局、オープンAIを調査 個人の評判巡るリスクへの対処巡り

203
Picks
このまま本文を読む
本文を読む

コメント


注目のコメント

  • badge
    三菱総合研究所 執行役員兼研究理事 生成AIラボセンター長

    ワシントンポストの記事がソースみたいです。
    https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/
    「FTCはOpenAIに対し、同社製品が人々について「虚偽、誤解を招く、軽蔑的、または有害な」発言をしているとして受け取ったすべての苦情について詳細な説明を提供するよう求めた。」

    消費者保護の観点で以前から警告を発していたようです。これに対してOpenAIは、データが他人に公開されたユーザーの数は極めて少ないと表明しています。

    データセットに個人情報が含まれ学習してしまったのは間違いないでしょう。それを訓練で止めていましたが、完全ではなかった。ChatGPTの本質的な問題なので、解決には多大な手間がかかります。OpenAIは正念場かもしれません。


  • badge
    AI企業 旅する魔法使い

    風評被害は、複数の要因が重なって起こるので、総合的に取り組む必要がありますね。
    1. 情報の不確実性(情報の源)
    2. メディアの影響 (情報の送り手)
    3. 個人の先入観 (情報の受け手)

    > オープンAIの製品が個人の評判などを傷つけ、「風評被害」を招くような不公正な慣行に従事していないか調べている


  • badge
    株式会社クラフター 代表取締役社長

    英語だと生成型AIが嘘をつくことをハルシネーションと呼んでいます。OpenAIが誤った情報を出して個人の風評被害を働きかけているかの調査が入るようです。

    > オープンAIがどのようにAIモデルに絡むリスクに対処しているかに関し記録を提出するよう要求。
    記録だけならまだいいですが、モデルの仕様や学習方法がリークされたら、ブラックボックスであるChatGPTの裏側が分かって大事になります。
    ただ生成型AIを試した人なら分かりますが、AIの回答はランダムで一律ではありません。たとえ調査が終わって改善策を出したとしても、ChatGPTが風評被害をするともしないとも言い切れないのが生成型AIだと思います


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか