自律型攻撃は「レッドライン」=AI諮問機関が中間報告―国連
コメント
注目のコメント
「自律型致死兵器システム(LAWS)」は火薬、核兵器に続き戦争を根本的に変える「第3の革命」になるとのこと。
生成AIは戦場で自律的判断を任せて効果を挙げられるレベルに達したことは間違いありません。ただし、それは確率的に効果が高いというものです。
人間も判断を間違えますが、人間は結果責任を負って判断します。それが一定の抑止力にもなっています。自律型兵器にはそれがありません。
しかも、核兵器と異なり、自律型兵器1基1基は小さく安価に製造できます。それが何億基も配備されたら悪夢以外何者でもありません。そもそも戦争そのものの是非が世界的に問われる中、LAWSの使用が増加していることは残念でなりません。「レッドライン」と明記されたことに個人的にも違和感はありません。
確かに現在のAI技術の進化を鑑みれば、例えば画像物体検出などで攻撃対象となる人間を探索・認識し、その判定結果をもって自動的に攻撃するようなシステムを組もうという試みが生まれることは、技術的な観点では考え得る話です。
ですが、ChatGPTなど現段階でのAIの精度を想像すれば明らかですが、基本的に100%精度はあり得ず、どのようなAIシステムであっても誤検出が一定の割合で間違いなく発生します。AIという技術がこうしたリスクを抱えているものである以上、LAWSのような仕組みを開発・利用することは許されるべきものではありません。(もちろん手動ならいいという話でもないという前提で)
一方、「グテレス事務総長も、2026年までに法的に禁じる枠組みを設けるよう各国に呼び掛け」とありますが、その猶予が長すぎる印象がありました。背景がわからないため、何かしらの事情考慮したものなのか、それだけ時間を要するものなのかと想像ことしかできませんが、一刻も早い規制の設置を各国が取り組むべきではないかと感じます。