AIによる「人類絶滅リスク議論」 過度な注目がもたらす新たな問題とは
コメント
注目のコメント
AIによって人類が滅亡するリスク、というよりも人間が謝った使い方をしてしまうリスクをどう管理統制していけるかが鍵になるでしょう。
核兵器が「外交のカード」になっているように、AI兵器が作られ次の国家間の外交カードになっていくと予想しています。
米国、中国、ロシアなどはすでにAI兵器開発に着手しているとされ、とりわけ国内の監視システムなどにAIを使う中国の技術革新は目覚ましい背景で、
今月から日本と北大西洋条約機構(NATO)は人工知能(AI)を搭載した兵器のルール構築へ議論を始めたという現状です。AIによる人類滅亡論は既存の問題から注意を逸らす可能性があるとのこと。確かにメディアが飛びつき易い話題ではあります。当面は心配いりませんが、中長期的には無視できない問題ではあります。
AI脅威論の最終形は、人間より賢い超知能AIが登場し、人類不要と判断して、人類に攻撃を仕掛ける話です。でもこれは相当に先の話。
直近心配すべきは自律型AI兵器でしょう。これは戦争の形を変えかねません。戦争を始めるハードルである自国兵士の損失を回避できますから。加えて恐ろしいのは、生成AIによる世論操作です。いわゆるハイブリッド戦争の強力な武器です。
つまりAI自身が危険ではなく、AIを使う独裁者が人類滅亡のトリガーを引きやすくなるリスクです。だからG7サミットで話題に取り上げられたとみています。人類規模の危険があるとすれば、人がAIに完全依存するようになって、それをAIが破壊するような事態かな。とすればそれをAIで回避する仕組みや非AI領域を残す仕組みなどが求められよう。滅亡論者が言うような半年開発ストップなどでどうにかなる話じゃない。