84Picks
Pick に失敗しました

人気 Picker
「なぜ、AIは偏見を抱くのか?」の答えは、
【人間が現実社会で生み出している「偏見」を含んだ結果データを教師データとして取り込み、AIはそのまま素直に学習するからです。】

人間社会の中から生み出される結果データを、教師データとして使う限り、AIも「偏見」を含んだもの、もしくはそれをさらに増長させたものになります。

「偏見」を持ち得るAIを、どのように扱うかについて、私の考えるポイントは以下の3つです。

1)「複数のAIモデル」を構築し、セカンドオピニオン的なチェックも行うこと
2)「急激な社会変化」が起こった際は、AIモデルの利用停止する業務フローを用意しておくこと
3)「AIによる出力」をもとに意思決定や業務を完全自動化するのではなく、AIと人の協業モデルとしての設計をすること


人間がそうであるように、AIは万能なものではなく、不完全で不得意な物がある存在です。そういったキャラクターとしてAIを捉え、人がどのように社会に招き入れるのかが、たくさんのシーンで問われるようになるでしょう。
これは、学習データにある、人間の偏見そのもの
なのであるが、しかしそう言う言い訳は通用しない。
と最近の議論ではなって来ている。

じゃあどうしているかと言うと、人間世界では、
法律で禁じたり、倫理教育したりと言う事を
繰り返し行っているが、それでも問題は起こる。

同じようなことをAIに対して行う、と言う事も出来る
であろう。

しかし、大切なのは、AIは不完全だと言う事を
ちゃんと認識すべき事である。

完全な人間がいないのに、何故AIに完全を求めるのか?

私は飛行機の設計をしていた。だから、
全ての系統を問題無く動かす事は、不可能である
事を知っている。

なので、その不完全を許容して、バックアップを
もうけて品質を保証するのである。

だからAIの課題を意識した、AIを含んだ
全体のシステムとしての品質保証を考えるべきである。

そして、この領域は実は日本は最先端なのである。
それは、AI屋では無く品質技術者がこの問題を
考えているからである。

AIを使える様にする答えはそこにある。
AIというワードへの期待値が高いように思います。
今時点でサービスとして導入されAIとアピールされているものの全ては、ヒトの思考以上、神のように正解を合理的に持っているという期待値は当てはまりません。

現状のサービスに落ちているAIと呼んでいるものは、時間をかければヒトも計算して導けるけれども、与えられたロジックの範囲の計算をヒトよりも早く、間違いなく計算できるということだと理解してます。

AIとは、どのあたりのロジックまでを呼ぶのかの社会的なコンセンサスは欲しいですね。
でないと、議論がかみ合いません。
Amazonの事例はよく引き合いに出されますが、単にやってみたけど、やっぱりそうなったよねって程度の話で、著しく想定外って話ではないと思います。

AIとうたっているサービスは、むしろ疑ってかかるくらいの方がちょうどいいですね。
「AIの偏見」という表現が誤解をまねくように思います。元のデータに偏りがあることが原因なので、その偏りを理解し、偏りを前提として意思決定・運用を組むことが、AIを使いこなすことにつながります。また、日本企業ではデータが汚れていて偏りがでてしまうということもよくあるので(Amazonではないでしょうが)、データ整備をちゃんとするということも大事な点かと思います。
Amazonが社内の採用のために開発したAIが、女性より男性を採用しやすくする偏見を持っていたという話。

これは良くあることで、AIの開発には大量のデータが必要になり、その中に潜む人間の偏見が多分に反映されています。

それを学習したAIが同じ偏見を持つのは、親が子の真似をするようなもので、至極当然の結果です。

ただ、重要なのは、AIが偏見を示したことで客観的に社内で偏見があることが明確になったことと、それを受けてAIからその偏見を取り除く(特徴量に改修を加える)ことで、逆に人間が行うよりも公平な採用が可能になることです。

AIの偏見は、鏡のようなもので、人間自身を映し出しているということなので、それを見てAIに変更はもちろんのこと、人間自身の偏見も正していく姿勢が大事だと思います。
いつか一切の偏見を持たない神のようなAIが生まれ,完璧な答えを出してくるようになるかもしれない.その時,本能として偏見を持っている人間は,そこには偏見があるように見えるのではないか.
社内のデータで学習させたら不具合が生じた例。しかしこれは「偏見」ではなく、等身大の自分が反映された結果。AIのせいではなく自分のせい。それをAIで変えるのは無理があります。AIと自分の向き合い方、まだこれから。
一企業であれば修正で済みますが、公共分野で考えるとまだまだAIの普及は個人データの場合はデータ主体に対する多様性を入れる前提が整えられていないため時間がかかりそうです。
過去データを使って学習させる限り,今の時代に合った判断を下すことが難しい現場もあると思います.
ただ,こういった採用現場で学習をさせてパターン抽出をすることで逆に人間の見えていなかった偏見が学習結果として可視化されるのはよいことかもしれないですね