迫り来る「ロボット軍拡」競争

コラム:迫り来る「ロボット軍拡」競争


[18日 ロイター] - ロシアによる最新の軍事演習「ザパド(西方)」が、北大西洋条約機構NATO)加盟国の東方国境沿いで実施されている。4年に1回行われるこの大規模演習は、訓練であると同時に西側諸国に対する力の誇示でもあり、数万人の兵員が参加する。
だが、次に予定される2021年、戦場には異なる種類の戦力が参加しているかもしれない。すなわち、無人で自律的に行動する航空機(ドローン)、戦車、艦船、潜水艇である。
ドローンによる戦争は目新しいものではない。米軍の無人航空機による攻撃で初めて死傷者が出たのは、2001年10月のアフガニスタンだった。だが、現在急速に変化しているのは、こうした無人システムが人間による誘導なしで活動する能力だ。

これはまさしく革命的な変化で、すべての主要国が他をリードしたいと考えている。以前から、無人システムを持つことにより、各国が戦争に走りやすくなるのではないかと懸念する声が上がっていた。今日では、非常にリアルなリスク管理が、そもそも人間の手を離れてしまうのではないかと考える人もいる。

テクノロジー系起業家のイーロン・マスク氏は以前からずっと、人工知能(AI)に関して人類はきわめて深刻な失敗を犯す瀬戸際にある、と警告してきた。同氏は先月さらに、自律性を持つ兵器プラットフォームは、壊滅的な結果を生みかねない軍拡競争を引き起こす可能性がある、と強い警告を発した。


マスク氏の警告からまもなく、その指摘を裏付けるかのように、ロシアのプーチン大統領は学生を相手に、無人兵器テクノロジーが状況を一変させるだろうと語り、ロシアがこのテクノロジーに力を注ぐことを明言した。「この分野でリーダーとなる者は、世界を支配するだろう」とプーチン氏は語ったと伝えられている。

すでにドローンは、人間の操縦者との通信が切れた場合に空中にとどまれるよう、独立した飛行能力を備えている。近いうちに、ドローンが自ら戦術的判断を下せるようになるかもしれない。米国のジョージア工科大学では、研究者らがこの夏、多数のドローンが人間の誘導なしに空中戦を演じるプログラムを作成した。米軍も同じような製品を実験している。


こうなると、オペレーター1人だけで今よりもはるかに多くのドローンに指令を出せるようになる。いや、直接の指揮官をまったく必要としなくなる可能性さえある。

ロボット工学分野で起きていること以上に重要なのは、AI分野における、さらに広範囲な発展かもしれない。これが必ずしも戦争を今以上に悲惨なものにするとは限らない。ドローンから投下される爆弾はそれ自体、有人の航空機から投下されるものよりも致死性が低いわけではない。精度が増すことで犠牲者が減少する可能性はあるものの、新たな無人システムがもたらす変化それ自体が、新たな紛争に火をつけるのではないかと一部の専門家は懸念している。


ハーバード大学ベルファーセンターが米国の情報当局関係者のためにまとめた報告書は、「革新的なテクノロジーの変化によって、政策面での発想もまったく新しくなる」と結論づけている。この報告書では、AIをめぐる「必然的な」軍拡競争は、核兵器の発明と同じくらい革命的な結果をもたらす可能性があると警告している。

AIは偵察テクノロジーの効率を劇的に改善する可能性がある。単一のシステムで、数百万件ものデジタル通信による会話やハッキングした個人用デバイス、その他の情報源を監視することが可能になるからだ。民主的な監視がほとんど、あるいはまったく存在しない一部の国家においては特に、これは恐ろしい意味を持つ可能性がある。


先日英国で行われたパネルディスカッションで、かつて英国の特殊部隊指揮官を務めたグレアム・ラム中将は、2030年までにテクノロジーの画期的進歩(AIだけでなく、量子コンピューターなど)によって、まったく予測不可能な変化が生まれるだろうと予言した。ラム中将は、特殊部隊の一部としてロボットやAIを伴う要素が配備されても不思議はないと示唆している。米陸軍が「有人/無人編成」と呼んでいるものだ。

まるでSFの世界のように思える。実際、SFのような外観を呈する可能性は十分にある。ロシアは昨年、ヒト型軍事ロボット「フョードル」を発表し、銃を発射する機能を実演した。

ほとんどの国は自国の国防用AIについて慎重に秘密を守っているが、それが結局のところ、マスク氏の警告する軍拡競争を加速してしまっている。一部の科学者はすでに、アーノルド・シュワルツェネッガー主演の映画「ターミネーター」シリーズに出てくる、米国がサイバー攻撃を懸念して重要な軍事システムの管理を人工知能スカイネット」に委ねるという想定が現実になるのではないかと懸念している。


今のところ西側諸国は、(標的の特定から標的の破壊へと至る)「キルチェーン」における人間の存在を維持することに熱心であるように見える。だが、すべての国がそのような選択をするとは限らない。
ロシアについては以前から人間よりも機械を信頼しているという評判があり、ある時期には、第一撃で指令系統が破壊された場合に備えて核ミサイルを自動的に発射するシステムを検討していた(実際に構築していたとの証拠も一部にある)。

軍事以外の分野では、開発者自身がAIのアルゴリズムに警戒心を抱く状況がすでに生じている。フェイスブックは8月、AIを使った実験を中止した。実験で使っていたプログラムが、監視している人間にも理解できない言語で互いにコミュニケーションを開始したからだ。
では、こうした変革によって、通常の人間の兵士はお役御免になるのだろうか。ほぼ確実に、それはない。より複雑な、ハイテク化する戦場では、必要な兵士の数は減るどころか増える可能性があるという主張さえあるほどだ。

ロボットのシステムは、ハッキングや通信妨害に対するぜい弱性があり、あるいは電子戦においてはあっさり運用不能になってしまう可能性がある。こうした手法があるため、イラクにおける米軍主導の部隊は、過激派組織「イスラム国」が使用する市販のドローンをほぼ無力化することができた。ロシアもウクライナにおいて、西側諸国で製造されたドローンに対して同様の手法を用いた。

自動化に力を注ぐ軍にとって、これは頭痛の種だ。兵器管制とダメージコントロールのかなりの部分を自動システムに依存している英国の新鋭航空母艦は、ほんのわずかだけ大型の米航空母艦に比べ、搭乗している兵員数は数分の一である。

ロシア軍の最新鋭戦車T14型「アルマータ」は、通常はほとんどの乗員が触れることのない自動化砲塔を装備している。こうした手法には明白な利点がある。だが同時に、電子系統に干渉された場合には役立たずになってしまう。
このようなテクノロジーは、それが良いアイデアか否かにかかわらず生まれてくる。実際、比較的古い軍用装備であっても、最新のものに換装可能だ。すでにロシアのエンジニアは、20年物のT90型戦車を遠隔操作用に調整できることを実証している。

皮肉なことに、北朝鮮危機をきっかけに、今なお最も危険なテクノロジーは、実は70年以上前に発明されたもの、つまり核兵器とそれを運搬するミサイルなのかもしれない、ということをわれわれは思い知らされている。仮に人類が核による滅亡を避けられるとしても、今後のAIとロボットによる革命も、同じように人類の存亡にかかわる課題であることが証明されることになるかもしれない。

*筆者はロイターのコラムニスト。元ロイターの防衛担当記者で、現在はシンクタンク「Project for Study of the 21st Century(PS21)」を立ち上げ、理事を務める。