Google、「Gemini」の人物画像生成の過剰補正問題について説明 「AIの罠を乗り越えていく」
コメント
選択しているユーザー
問題発覚してすぐにサービス停止という対応の速さが気になりました。以前だったら「学習データの問題」「アルゴリズムが学習した結果」などの理由で放置されることも多かったが、AIサービスへの責任の捉え方のフェーズが変わってきた。何が人種差別的なのかは時期、対象者、用途によって変わってしまうので、画一的な対処するのが難しい。歴史的事実に対しては事実に即した生成が求められる(ことが多い)、一般的な概念の時はよりニュートラルなアウトプットが求められる(ことが多い)ので、そこから逸脱したアウトプットは明示しないと生成されない、などとするのだろうか。
注目のコメント
「多様な人物を表示するよう調整する」というのはバイアス補正の問題です。
例えば「日本の大手企業の管理職」というプロンプトに対して、そのまま統計的に扱ってしまうと男性のイメージばかりが描画されてしまう。このことが現在のバイアスを更に強化してしまうことがありえるため、バランスを取って女性も、場合によっては外国人も描画するように調整を加えているのがGemini。
このことが意図しないかたちで影響してしまったのが今回のケースです。
あくまでもツールであるのに、プロンプトの入力者が意図しないアウトプットばかりになってしまっては元も子もない。
歴史的な事実は統計的に固定してしまうのか、ちょっと解決策が悩ましいところですが、興味深いポイントでもあります。世の中にある情報量を反映しているため、バイアスがかかった表示に見えてしまうということだと思いますが、バランスを考慮し補正するのでしょう。試行錯誤は一定仕方ないフェーズなので、社会に受け入れられるサービスとして改善されていくと思います。