• 特集
  • 番組
  • トピックス
  • 学び
プレミアムを無料で体験

公平なアルゴリズムは存在しないのか。日本企業にAI倫理が必須になるワケ

127
Picks
このまま本文を読む
本文を読む

コメント


のアイコン

選択しているユーザー

  • 保険会社(フランス) Data engineer team leader・道産子

    公平なアルゴリズムの存在が問題なのではありません。

    そもそも公平さ(fairness)とは立法などを通じて社会のポリシーとして合意形成されるもので、その定義はアルゴリズムやデータとは別のものです。

    その公平さを数学の言葉を使ってモデル化し、それを満たすように設計され検証されたのが「公平なアルゴリズム」です。

    つまり公平なアルゴリズムは存在云々の問題ではなく、事前定義された仕様の実装の問題です。それに先立ち何が公平かという合意形成とそのモデル化が必要です。

    社会のポリシーが主で、データやアルゴリズムは従です。そこを取り違えてはいけません。


注目のコメント

  • badge
    AtCoder株式会社 代表取締役社長

    この手の話、「倫理ってなんだ」って話になるんだよなあ……。

    仮定の話として、「力仕事を1日手伝ってもらいたい。男性と女性の候補者が1名ずついる。他の情報は一切ない+得ることも出来ない。どちらを採用するか?」って話があったとして、普通は男性を選ぶと思う。これは「男性」って集合と「女性」って集合を比較して、「男性」のが肉体労働が出来る割合が高いから、という話。「力仕事」が「家事」だと逆転する。
    でもこの二人を見れば女性の方が力仕事に向いてたかもしれないし、性差別って言われるのかもしれない。だから「男」と「女」しか情報がなかったらランダム50%採用しましょうね、ってのが「公平さ」を保つAI。
    別にそうやって評価軸を設けて、それぞれの評価軸に対して公平さが保たれるように実装すれば、別にAIだって、その評価軸における公平性は保てるとは思う。これが正しいのか、って言われるとぜんっぜんわかんない。「バイアス」って要するに「統計的に相関があること」とも言えて、それを片っ端から潰そう、というのは、精度が下がる話にしか思えない。
    ↑の考え方が既に「差別主義者」と言われてしまうのかもしれない。

    もちろん、「そういうバイアスを使わず全てを観測して正しく評価をする」ってのが出来れば最高なんだけど、それにも当然コストがかかる。でも、それが出来ないから活躍するのがAIなはずで、こんなことやってたらめっちゃ停滞しそうだなあ、と思ってしまう。
    当然だけど、ノーコストで観測できるものとか、本当にただの偏見で事実と異なる判断とかが含まれてたりしたら、それは完全にアウト。


  • 宇宙機GNCエンジニア 第1期 Student Picker

    ほとんどのAIはその正解となる”教師データ“が必要で、その正解のラベル付に開発者の思考バイアスが少なからず入る気がする。当然AIもそれに従ったものになる。

    例えば、購入データから性別を推測するAIを作りたい時、開発者の「男らしさ」、「女らしさ」のバイアスがAIに反映される。

    AIを学習させることでその人の認知バイアスが可視化されるような事があるかもしれない。

    いずれにせよ、「責任あるAI」の開発には人間の思考バイアスを取り除くことが大切


  • 某上場企業 内部統制部門 部長

    >AIに判断を任せる対象とその結果の利用方法に関し、審査プロセスの設計と意図しない結果を回避するための措置や体制を、企業の倫理的ガバナンスの中に組み込んでいく必要があります。 責任あるAIは純粋に技術的な追求だけではなく組織やプロセス、スキルの要素も含まれているのです。


    組織やプロセスの構築は『ガバナンス』ではなく『内部統制』です。
    みんなそこを間違うんだよね。

    AIを導入することによって新たに生じるリスクを識別して、そのリスクの影響度合いを測り、リスクへの対応をすることは、全て内部統制です。

    だからこそ、これからの時代は内部統制の知見が必要なんです。


アプリをダウンロード

NewsPicks について

SNSアカウント


関連サービス


法人・団体向けサービス


その他


© Uzabase, Inc

マイニュースに代わり
フォローを今後利用しますか