ロボット兵器が「学習」すれば戦死者は増える。軍事のプロが懸念

 

この点で有用なのは、イェール大学ロースクールのレベッカ・クロートフ講師による、「『自律型兵器システム』とは、収集した情報とあらかじめプログラムされた制約条件に基づいて、独立して目標を選び攻撃する能力のある兵器システム」という定義だ。[2]

この定義には、艦艇用近接防御火器システム(CIWS)、艦隊防空を主な目的とするイージスシステム、対レーダー攻撃機ハーピーなど徘徊型兵器、ロケット弾・砲弾・迫撃砲弾迎撃兵器(C-RAM)アイアン・ドームなどが該当する。

イージス艦が民間人の命を奪った誤射事件として有名な1988年のイラン航空655便撃墜事件は、実は自律型兵器システムを使用していれば民間人の死を防げたケースである。米巡洋艦「ヴィンセンス」のイージスシステムは、イラン航空機が高度を上げて遠ざかりつつあることを認識していたが、乗員は降下・接近中の戦闘機と誤認し、対空ミサイルを発射して撃墜した。「ヴィンセンス」のイージスシステムが、全自動で防空戦闘するカジュアルティ(乗員死傷)モードに設定されていれば、誤射はなかった可能性が高い。

そもそも、ロボット兵器を一律に禁止するか、規制を一から考える必要があるという、過去5年間にわたる議論は、ロボット兵器が法の空白地帯であるという前提に立っているのであれば、間違っている。武力紛争法は、兵器の種類にかかわらず、戦争犯罪の基準を示しているからだ。

武力紛争法の二大原則は、1)戦闘員と非戦闘員を区別し、非戦闘員は攻撃目標にしないこと、2)目標を攻撃する場合に想定される非戦闘員の巻き添え被害は、目標の軍事的価値に比べて、不釣り合いに大きくなってはならない、というものである。

現在のロボット兵器は、このような判断力がないためもあって、軍事物しか攻撃しないように設計されているか、非戦闘員のいない非武装地帯などに配備されている。そこにおいては、ロボット兵器が非戦闘員の死者を増やすかどうかは、使い方による。

しかしながら、ロボットが群れとして行動し、環境と敵味方の行動をフィードバックとして学習する複雑適応系においては人間が予想できない創発的行動が表れる可能性がある。この場合、ロボット兵器の投入を決める立場にある人間は、武力紛争法に違反する結果が生じる可能性を推定するための情報をもたないので、投入を決めること自体が戦争犯罪にあたるおそれがある。

ロボット兵器に対するマスク氏らの懸念は、複雑適応系における機械学習に論点を絞ることになれば説得力が増すと思われる。(静岡県立大学グローバル地域センター特任助教・西恭之)

(参考文献)

[1]Department of Defense Directive 3000.09, Autonomy in Weapon Systems. 2012年11月. [2]Rebecca Crootof, ”The Killer Robots are Here: Legal and Policy Implications,” Cardozo Law Review 36:1837-1915, at 1854. 2015年.

image by: Shutterstock.com

小川和久この著者の記事一覧

地方新聞記者、週刊誌記者などを経て、日本初の軍事アナリストとして独立。国家安全保障に関する官邸機能強化会議議員、、内閣官房危機管理研究会主査などを歴任。一流ビジネスマンとして世界を相手に勝とうとすれば、メルマガが扱っている分野は外せない。

有料メルマガ好評配信中

  初月無料お試し登録はこちらから  

この記事が気に入ったら登録!しよう 『 NEWSを疑え! 』

【著者】 小川和久 【月額】 初月無料!月額999円(税込) 【発行周期】 毎週 月・木曜日発行予定

print
いま読まれてます

  • ロボット兵器が「学習」すれば戦死者は増える。軍事のプロが懸念
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け