• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で

588
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • 関門医療センター 救命救急センター長

    一旦完全に男女の区別のない社会を作ってみたら、役割分担の大切さに気づくと思います。オリンピックの男女別廃止とか、温泉の清掃は男女均等に雇用とか、軍は男女半々にとかしても絶対に上手く行かないのだから、そこから差別でなく、シーンに応じて区別をしていくしかないという方向に向かうのがベストだと思います。
    男女差別の少ない国はその辺の分別がとてもスムーズで上手い気がします。
    このAmazonのAIの判断も全てが間違いという訳でなく、男女を区別する事がBetterな過去の事例を学習してる部分もあると思います。


注目のコメント

  • badge
    NASA Jet Propulsion Laboratory 技術者・作家

    荘司さん、みなさん、AIは中立的、というのは必ずしも正しくありません。

    おそらくこれは過去の例からSupervised learning(教師付き学習)させたのでしょう。その際、機械学習は教師データの傾向を真似するだけです。たとえば履歴書の文面と人間による評価をセットにして教師データとしたとします。その人間による評価が差別的に行われていたとします。すると当然、機械学習は人間の差別的価値判断を学習(真似)します。

    子供が学校で汚い言葉を使っているとき、ああきっと親もああいう言葉を使っていたのね、となりますよね。同じです。AIが差別をしていたというなら、それは学習元の潜在的な人間に差別があったことを示唆しているのかもしれません。

    AIといえば聞こえがいいですが、機械学習がやっていることは根本的には統計処理と同じです。使っているモデルが途方もなく複雑なだけです。だから、アルゴリズムが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったというなら、それは過去の人間による評価を統計にかけた結果、人間たちが「女性チェス部の部長」という言葉に反応して評価を下げる傾向があったことが明らかになった、というだけのことかもしれません。


  • 株式会社日本総合研究所 上席主任研究員

    AIがそう学習したということは、意図的ではないにせよ、人もこれまでそうした判断をしてきたということだろう。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか