• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

人種的偏見と闘うAIの新分野が求められている

102
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

注目のコメント

  • U of Michigan 教授 (機械工学), 副学科長

    「偏見」を生むのはコードではなくデータですねぇ

    ヒトも同じです

    そして偏っているかどうか、その偏りを測る基準点と容認可不可の偏差値境界を決めるのもヒトです、多くの場合、その時点で「majority」に属する

    ご参考
    https://newspicks.com/news/5046698?invoker=np_urlshare_uid1506052&utm_source=newspicks&utm_medium=urlshare&utm_campaign=np_urlshare


  • badge
    株式会社 東芝 代表執行役社長 CEO

    データそのものに、バイアスがかかっているのが問題の根源である。人種偏見のデータ項目を教師データから除くクレンジングが最も重要であろう。即ち、個人的の属性を除く事である。

    なので、データやAIが悪いのではなく、偏った、バイアスのデータしか無い事が問題である。


  • badge
    ㈱ニューロープ CEO / PIIF 准教授 / 純文学小説家

    AIによる美人コンテストが物議を醸したのも記憶に新しい。
    https://beautytech.jp/n/nabb469fb826c

    何かを判定するに当たって人がやってもAIがやってもバイアスはかかっているところ、後者が騒がれるのはスケーラビリティがあり、企画としてではなくインフラとして世の中に組み込まれてしまいうること、固定化してしまいそうなイメージがあること、バイアスを取り払うチャンスとも捉えられることなどが混在してのことだと思います。
    理想を言えば、例えば面接官の採用面接の結果の偏りをAIが指摘して補正したりといった、バイアス補正のツールにもなりえる。
    古くはクレジットのスクアリングなんかは人がやるよりずっとフェアである可能性が高い。(スコアの背景となる所得自体の偏りは別問題。)
    バイアス問題を真剣に論じることは、AIの危険性でなく可能性を考えるきっかけでもあると思います。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか