「AIが神格化した世界」はディストピアか? AIの誤判定で“3万人超”の人生狂わせたオランダ政府の事例
コメント
注目のコメント
記事で引用されているオランダのケース(政府のAIが「児童手当の不正受給者」と誤判定したために大量の家庭崩壊を生んだ問題)は明らかに人為的なミスだと思います。2008年当時どころか今でもAIは100%の精度に達しておらず、程度の差はあれ「あくまでも意思決定のサポート」という立ち位置で利用されることが前提となっています。
「AIは人類を滅ぼす」の文脈でいうとそちらではなく、悪意のフレームを持たせるケースが問題になってくると思います。
身近なところだと、フィッシング詐欺に文章生成とABテストをかけあわせた進歩には危機感を抱くところがあります。
AIが悪意を持って全力で働いたときに、例えば物流網が崩壊して世界が飢餓に覆われるようなシナリオは考えられなくはありません。
法整備だけでなく、アナログな運用をあえて残すようなセキュリティ対策が3年後、5年後、10年後を見通すと各業界に必要になってくるのではないかと思います。不正検知AIの誤判断で数万人が補助金を受給できず、困窮に陥ったオランダの事件です。典型的なAI偏見です。
人はAIが優秀になればなるほど、AIに頼り切りになり自分で考えなくなります。
例え99%正しく判断するAIも1%間違えます。普通の用途なら、そのままAI判断を採用しても問題ありません。しかし、10万人をAI判断すれば1000人に影響します。
この問題を解決するには、いくつかの方法を組み合わせなければいけません。一つは、間違いに異議を申し出るプロセスを用意すること。そのために人が理解できるAI判断ロジックの説明をするAIを用意することです。
複数のAIで合議して誤判断を減らす努力も有効です。さらに審査官のAI活用研修を充実させることも必要でしょう。
別の方法としては、重大な判断にはAIを使わない選択肢もあります。これがEUのAI規制です。公的機関は人のスコアリングを禁止と定めました。やり過ぎとの批判もあるでしょうが、被害の大きさを考えればやむを得ないとの考えもあります。政府や公的機関によるAIを使った誤認定の事件は定期的に起きますが、そもそも開発元と発注者の間でのテストが足りていないのでは?ということと、そもそもアウトプットに幅が出てAIがその論拠を提示できないことを考えると、AIではなく条件分岐で機械的に割り出す方が適切なのではないかと思います。
まだ使い方に荒さが目立ち、この手の事件が発生している現状で、ディストピアかユートピアかを判断することはできないと思います。