戦闘機を制御する“軍事AI”が米軍のパイロットに圧勝、そのポテンシャルの高さが意味すること

アルファベット傘下の人工知能(AI)企業、ディープマインドが開発した「強化学習」の手法。ある企業は、この手法を応用したAIパイロットを開発し、戦闘シミュレーションで米軍のF-16パイロットに圧勝してみせた。そのポテンシャルの高さは、AIの軍事利用に関する丁寧な議論の必要性を示している。
戦闘機を制御する“軍事AI”が米軍のパイロットに圧勝、そのポテンシャルの高さが意味すること
PHOTOGRAPH BY ICON SPORTSWIRE

アルファベット傘下の人工知能AI)企業として知られるディープマインドDeepMind)の創業者ふたりが2015年7月、ある公開書簡にいち早く署名した。殺傷能力のあるAI兵器の開発への取り組みを禁止するよう世界各国の政府に勧告したこの書簡の署名には、スティーヴン・ホーキングやイーロン・マスク、そしてTwitterの共同創業者のジャック・ドーシーなども名を連ねていた。

こうしたなか、ディープマインドが一般に広めてきたAI技術が、自律飛行するF-16戦闘機を制御できるよう最適化されていた。米国防総省が資金を提供し、AIシステムの能力を披露するためのコンテスト「AlphaDogfight」が2020年8月中旬に開催されたのだ。

コンテストの最終ステージでは、そのアルゴリズムのひとつが、仮想現実(VR)のヘッドセットをかぶってシミュレーターを操作する人間のパイロットと直接対決した。勝ったのはAIパイロットで、スコアは5対0だった。

技術発展と非倫理的利用の板挟み

このエピソードは、ディープマインドがふたつの相反する“欲望”の狭間にあることを示している。

ディープマインドは、自社の技術が人を殺すために利用されることは望んでいない。一方で、研究内容やソースコードを公開すればAI分野での進歩に役立ち、その結果に基づいてほかの人々が研究を発展させることができる。だが、それは同時に、外部の人々がそれぞれの目的でコードを利用したり、最適化させたりすることにもつながる。

AI分野においては、他社も同じような板挟みに苦闘している。顔認識からディープフェイク、自律型兵器に至るまで、倫理的に問題があるAIの利用が次々に登場するなか、こうした板挟みはますます大きな意味をもってきている。

ディープマインドの広報担当者は、社会はAI兵器について何が許容できるのか議論する必要があるのだと言う。「AIの責任ある利用に関する共通規範の確立が極めて重要です」

ディープマインドの社内には、自社の研究がどのような影響を及ぼしうるかを評価するチームがあり、同社が開発したコードのなかには外部に公開されないものもある。「何を公開するかについては、思慮深く責任をもって考えています」と、ディープマインドの広報担当者は言う。


人工知能について詳しく知りたい? 会員限定のコンテンツも公開中!

はたしてAIに倫理や哲学は必要だろうか。ダイヴァーシティやインクルージョンを理解できるだろうか。汎用型AIか特化型AIかという二元論を超えて、技術的特異点の真のインパクトを読み解く。


制限なきAI兵器の開発競争

米国防総省の国防高等研究計画局(DARPA)が開催した今回のコンテストは、これまで人間だけが担ってきた極めて重要な軍事任務を引き受けるAIの可能性を示すものだ。訓練を積んだ戦闘機のパイロットの技術と適応力を、従来型のコンピュータープログラムに再現させることは不可能かもしれない。だがAIのプログラムなら、機械学習を通じてそのような能力も得られるだろう。

「テクノロジーは軍事的・政治的な議論の進展よりはるかに速く発展しています」と、マサチューセッツ工科大学(MIT)教授のマックス・テグマークは言う。テグマークは反AI兵器の公開状を推進した組織「フューチャー オブ ライフ インスティテュート」(FLI)の創設者のひとりである。

米国をはじめとする各国は、“敵”より少しでも早くAI技術を導入しようと競っており、各国が野放し状態になることを防ぐのは難しいと考える専門家もいる。AI研究者にとっても、オープンな科学研究の原則と、自分たちのアイデアやコードが軍事利用される可能性との間でバランスをとることが難しくなるかもしれない。

殺傷能力のあるAI兵器の開発を制限する国際的な合意がなければ、米国に敵対する者たちが殺人可能なAIシステムを自由に開発できてしまうのだと、テグマークは言う。「何もしなければ最悪の結果に向かうでしょう」

AIをもってAIを制す

米軍のリーダーたち、そしてAlphaDogfightコンテストを企画した人々は、戦場で生死を分けるような決断を機械にさせようとは思っていないという。

実際に米国防総省は、自動化システムに人間の制御がないまま発砲を決める能力を与えることを、以前から拒否してきた。また米国国防総省指令でも、自律型兵器システムを人間が監視することが明示的に要求されている。

だが今回のコンテストは現実問題として、自律型兵器システムの能力を制限することが難しくなりそうな方向にテクノロジーが進んでいることを示している。アルゴリズムが制御する航空機は、最も優秀なエリートパイロットさえ凌駕するような速度と正確さで任務を実行することができるのだ。

こうした技術は、最終的には大量の自律型航空機の誕生につながる可能性がある。そして、そうしたシステムから自らを防衛する唯一の方法は、同様の速度で機能する自律型兵器を使うことだろう。

「高速で圧倒的で、群れのようなロボット工学技術というヴィジョンは、そうした兵器ネットワークのなかにいる人間と本当に協調しうるのでしょうか」と、ワシントン大学教授のライアン・カロは問う。「人間による『意味のある』制御と、軍事衝突における一部のAIの優位性との間には葛藤があります」

軍事目的でない技術が転用される可能性

AIは急速に軍事分野に参入しつつある。そして、米国防総省がテック企業やその技術者たちへの声がけをこの数年で強化しているのは、最新の進歩が従来の防衛請負企業よりもシリコンヴァレーからもたらされる可能性が高いことを認識しているからだ。

これによって論争も起きている。最も有名な事例は、アルファベット傘下のグーグルの社員が、米空軍に航空画像分析用のAIを提供するという同社の契約に抗議したことだろう。

とはいえ、一般に公開されているAIのコンセプトとツールを軍事用途に使うことだって可能だ。すでにディープマインドは15年にAI兵器に反対する公開状を共同提出したが、同社はそのわずか数カ月前に画期的なAIアルゴリズムの詳細とコードを発表していた。

アタリのさまざまなヴィデオゲームを人並み外れたスキルでプレイするこのアルゴリズムには、強化学習と呼ばれる手法が使われている。実験を繰り返して技術を身に付け、どのような操作が高スコアにつながるかを徐々に学習するものだ。そしてAlphaDogfightコンテストに参加した数社が、これと同じアイデアを利用していた。

ディープマインドは、ほかにも軍事用途に利用可能なコードを公開している。19年1月には、壮大な宇宙を舞台にしたリアルタイムストラテジーゲーム「スタークラフト2」をプレイできる強化学習アルゴリズムの詳細を公開した。なお、DARPAが主催する別のプロジェクト「Gamebreaker」では、「スタークラフト2」などのゲームを使って新しいAI戦争ゲームの戦略を練ることが参加者に求められている。

軍事用AIに利用できる可能性のあるアイデアやツールは、ほかの企業や研究所からも生まれている。AIを研究する非営利団体「OpenAI」が17年に公開した強化学習の手法は、AlphaDogfightの複数参加者のデザインにインスピレーションを与えている。

OpenAIは、イーロン・マスクY Combinatorの元社長サム・アルトマンといったシリコンヴァレーの著名人たちが、「人類に害を及ぼす(中略)AIの利用が可能になることを回避する」ために設立した団体であり、AI兵器の危険を強調する研究も支援している。OpenAIからのコメントは得られていない。

研究者たちの懸念

AI研究者のなかには、自分たちは汎用ツールを開発しているにすぎないと感じている人々もいる。一方、自分たちの研究が最終的にどのように利用される可能性があるのかについて、懸念を募らせる研究者もいる。

ユニヴァーシティ・カレッジ・ロンドン准教授のジュリアン・コーンバイスは、「わたしはいま自分のキャリアの分岐点にいます。機械学習にできることは悪いことよりいいことのほうが多いのか、見極めようとしているんです」と言う。大学で職に就く前、彼はディープマインドやカナダのエレメントAIに務めていた。

コーンバイスは、アムネスティ・インターナショナルのプロジェクトに参加した経験もある。AIを利用し、衛星画像によってスーダンで起きたダルフール紛争で破壊された村を見つけるプロジェクトだ。コーンバイスを始め、このプロジェクトに参加した研究者たちは、コードを公開しない選択をした。脆弱になった村を標的にするために利用される可能性を恐れたからだ。

ワシントン大学のカロは、コードをどのように公開するか、各企業が自社の研究者たちと率直に話し合うことがますます重要になるだろうと話す。「各社は参加したくないプロジェクトには参加しないという選択肢をもっていなければなりません」

AI軍事システムの利用について、丁寧な議論を

DARPAのコンテストのシミュレーション環境は非常に単純なものなので、アルゴリズムを実際の航空機に展開することは難しいと判明する可能性もある。状況を理解し、新しい難題に直面した際に「常識」を適用できる人間のパイロットの能力には、引き続き大きく優れた点があるはずだ。

それでも今回のデスマッチは、AIの潜在的な能力を明らかにした。何ラウンドにも及ぶ仮想の戦闘の結果、AlphaDogfightコンテストの勝者はヘロン・システムズ(Heron Systems)となった。メリーランド州カリフォルニアに本拠を置く、AIに注力した小さな防衛企業である。同社は独自の強化学習アルゴリズムをゼロから開発した。

最後の対戦では、「バンガー」(Banger)のコールサインで呼ばれる米空軍の戦闘機パイロットが、VRヘッドセットと本物のF-16戦闘機の内部に似せてつくられた制御装置を使って、ヘロンのプログラムと交戦した。

第1戦ではバンガーが敵を視界と射程範囲に入れようとして積極的に機体を傾けたが、シミュレーションの敵も同じ速度で機体を傾け、2機がきりもみ状態に陥りながら、それぞれが相手に照準を合わせようとした。

何度か回転したあと、バンガーの敵は完璧なタイミングで長距離の銃撃を命中させ、バンガーのF-16は撃墜された。2機による残り4回の空中戦も、ほぼ同じかたちで終わった。

ヘロンのヴァイスプレジデントのブレット・ダーシーによると、同社はこの技術がいつかは本物の軍用機器に使用されることを望んでいるという。一方でダーシーは、このようなシステムの倫理については、議論の余地があるとも考えている。

「このようなシステムがそもそも存在するべきかどうかについて、丁寧な議論ができるような世界であってほしいです」と、ダーシーは言う。「たとえ米国がこれらの技術を採用しなかったとしても、ほかのどこかが採用するでしょうから」