新着Pick
253Picks
Pick に失敗しました

人気 Picker
採用など個人の人生を大きく左右する意思決定プロセスで使われるAIを開発する場合、より教師データやモデル、検証内容などの透明性と説明責任が求められます。
今回のケースでは透明性は無く、何ヶ月も経った今でも色々なことが開示されていないままです。
※私がリクナビ問題とAI倫理について書いた記事はこちら。
https://www.businessinsider.jp/post-197693

この記事にあるように使う人(人事担当者)が間違った活用方法で使うことが可能かどうかも大事な視点です。
すなわち、AIモデルの目的が明確でなく、間違った使い方や悪用をする人を事前に想定して、そのようなBad Actorをどうやって検知するか、リスクを最小限に抑えるメカニズムは何かを考えて
機能として作り込む必要があるということです。

採用AI全部を否定するのではなく、人間が陥りがちなリスク(認知バイアスなど)を最小限に抑えてより効率的に採用をするためにはどんなAIが必要か、倫理的なAIは何なのか、そのための
ルールや枠組み作り、そして組織作りを建設的に議論する必要があります。
重要な局面でAIの活用が進めば進むほど、AIの判断結果をどう評価して最終的な判断を下すか、という人間の鑑識眼が問われるようになる気がします。