MAG2 NEWS MENU

ロボット兵器が「学習」すれば戦死者は増える。軍事のプロが懸念

「ロボット兵器が戦争に使われる」…まるで映画の中だけのような話が現実になりつつあるようです。では、人を殺すために開発されたロボット兵器を実際の戦争に投入すると、戦死者は今まで以上に増えることになるのでしょうか。軍事アナリストの小川和久さんが主宰するメルマガ『NEWSを疑え!』では、静岡県立大学グローバル地域センター特任助教の西恭之さんが、ロボット兵器の規制すべき面とその定義と比較しながら解説しています。軍事のプロから見た、自律型ロボット兵器の現状と懸念点とは?

【Q】:ロボット兵器が投入されると、戦争全体の戦死者は減ると思いますか? 増えると思いますか?

【A】:ロボット兵器は既に投入されており、アイアン・ドームなどは戦死者を減らしている。しかし、群れとして行動し、環境と敵味方の行動をフィードバックとして学習するロボット兵器が投入されると、人間が予想できない行動をして、戦死者が増えるおそれが強い。

自律型ロボット兵器を規制するには

● テスラCEOら、ロボット兵器禁止で公開書簡 国連に訴え(CNN.co.jp)

米国の電気自動車メーカー・テスラのイーロン・マスク氏ら、人工知能やロボット工学に携わる企業の創業者が去る8月21日、自律型ロボット兵器(致死性の自律型兵器システム)の開発に懸念を表明する公開書簡を発表した。書簡は、この種の兵器が開発されれば、「武力紛争の規模が人類の理解を超えるスピードでかつてなく拡大」する可能性を警告し、その禁止・制限を検討する国連の動きに協力を申し出ている。

このニュースに関して、「今後ロボット兵器が投入されると、戦争全体の戦死者は減るのか増えるのか?」というテーマの記事を、『NEWSを疑え!』の配信会社の一つである、まぐまぐ運営の「MAG2 NEWS」から依頼された。

本稿では、自律型ロボット兵器の定義を比較検討し、1)こうした兵器はすでに使用されており、使用していれば民間人の死を防げたケースもあること、2)どの兵器も武力紛争法戦時国際法に規制されていることを指摘する。そして、それでも禁止または規制を検討すべき面として、ロボット兵器の複雑適応系における機械学習を挙げる。

米国防総省は、自律型兵器システムを「起動されたあとは、操作員の介入を受けずに、個別の目標を選び攻撃することができる」と定義している。[1] この定義は、そうした能力をもつ兵器システムの使用について、決定する人間の側の責任を強調している。マスク氏らの2015年の公開書簡も、この定義に準拠している。

しかし、同省は、「あらかじめ操作員が選んだ個別の目標または目標の集団しか攻撃しないように作られた」半自律型兵器システムの例に、発射後に目標を探知するミサイルを挙げている。この考え方に立てば、兵士と同程度に自律的な兵器も半自律型に分類される余地がある。

このように、自律性を理由にロボット兵器を国際的に禁止または制限するのであれば、「人命を奪うかどうかは人間が決めるという武力紛争法の前提との関係において、自律性を定義する必要がある。

この点で有用なのは、イェール大学ロースクールのレベッカ・クロートフ講師による、「『自律型兵器システム』とは、収集した情報とあらかじめプログラムされた制約条件に基づいて、独立して目標を選び攻撃する能力のある兵器システム」という定義だ。[2]

この定義には、艦艇用近接防御火器システム(CIWS)、艦隊防空を主な目的とするイージスシステム、対レーダー攻撃機ハーピーなど徘徊型兵器、ロケット弾・砲弾・迫撃砲弾迎撃兵器(C-RAM)アイアン・ドームなどが該当する。

イージス艦が民間人の命を奪った誤射事件として有名な1988年のイラン航空655便撃墜事件は、実は自律型兵器システムを使用していれば民間人の死を防げたケースである。米巡洋艦「ヴィンセンス」のイージスシステムは、イラン航空機が高度を上げて遠ざかりつつあることを認識していたが、乗員は降下・接近中の戦闘機と誤認し、対空ミサイルを発射して撃墜した。「ヴィンセンス」のイージスシステムが、全自動で防空戦闘するカジュアルティ(乗員死傷)モードに設定されていれば、誤射はなかった可能性が高い。

そもそも、ロボット兵器を一律に禁止するか、規制を一から考える必要があるという、過去5年間にわたる議論は、ロボット兵器が法の空白地帯であるという前提に立っているのであれば、間違っている。武力紛争法は、兵器の種類にかかわらず、戦争犯罪の基準を示しているからだ。

武力紛争法の二大原則は、1)戦闘員と非戦闘員を区別し、非戦闘員は攻撃目標にしないこと、2)目標を攻撃する場合に想定される非戦闘員の巻き添え被害は、目標の軍事的価値に比べて、不釣り合いに大きくなってはならない、というものである。

現在のロボット兵器は、このような判断力がないためもあって、軍事物しか攻撃しないように設計されているか、非戦闘員のいない非武装地帯などに配備されている。そこにおいては、ロボット兵器が非戦闘員の死者を増やすかどうかは、使い方による。

しかしながら、ロボットが群れとして行動し、環境と敵味方の行動をフィードバックとして学習する複雑適応系においては人間が予想できない創発的行動が表れる可能性がある。この場合、ロボット兵器の投入を決める立場にある人間は、武力紛争法に違反する結果が生じる可能性を推定するための情報をもたないので、投入を決めること自体が戦争犯罪にあたるおそれがある。

ロボット兵器に対するマスク氏らの懸念は、複雑適応系における機械学習に論点を絞ることになれば説得力が増すと思われる。(静岡県立大学グローバル地域センター特任助教・西恭之)

(参考文献)

[1]Department of Defense Directive 3000.09, Autonomy in Weapon Systems. 2012年11月.
[2]Rebecca Crootof, ”The Killer Robots are Here: Legal and Policy Implications,” Cardozo Law Review 36:1837-1915, at 1854. 2015年.

image by: Shutterstock.com

小川和久この著者の記事一覧

地方新聞記者、週刊誌記者などを経て、日本初の軍事アナリストとして独立。国家安全保障に関する官邸機能強化会議議員、、内閣官房危機管理研究会主査などを歴任。一流ビジネスマンとして世界を相手に勝とうとすれば、メルマガが扱っている分野は外せない。

有料メルマガ好評配信中

  初月無料お試し登録はこちらから  

この記事が気に入ったら登録!しよう 『 NEWSを疑え! 』

【著者】 小川和久 【月額】 初月無料!月額999円(税込) 【発行周期】 毎週 月・木曜日発行予定

print

シェアランキング

この記事が気に入ったら
いいね!しよう
MAG2 NEWSの最新情報をお届け