「イランの核を阻止」掲げながら核使用チラつかせる、トランプとネタニヤフ究極の“笑止千万なダブルスタンダード”

 

戦闘に勝つことを最優先し「核使用」すら躊躇しないAI

ちなみに同様のことが2025年5月、核保有国同士の戦争の危機とまで言われたインド・パキスタン間の軍事衝突時にも起き、両国がAIで生成された真偽不明の映像や動画が、両国のAIによる情報分析に紛れ込んだ結果、不必要なレベルまで紛争が過熱するという事態が起き、両国が核兵器の使用を含む警戒レベルにまで作戦レベルを上げるという事態が生じています。

情報の真偽を見分けることが実質的に不可能なレベルにまで情報が攪乱され、当事者間で互いの意図を読み違える源になってしまったら、過剰な反応の連鎖が引き起こされる危険性が一気に高まります。

まだ最終的な攻撃の承認プロセスは人間が行う“半自動化システム”のレベルで止まっていますが、すでに技術的には可能と言われているLAWS(自律型致死兵器システム)が導入され、AIが人間の指示を待つことなく自身の分析に基づいて攻撃の実施までを自動で行うような戦争になれば、一切のエラーは許されてはなりませんが、AIが自律的に攻撃を行うような事態になれば、だれがそのエラーに気付き、それを正すことができるのでしょうか?

ましてや核兵器の運用にAIが関与し、さらにはLAWSの運用範囲に核兵器が含まれるようになったら、必然的に核戦争の危険性が高まると考えられます。

ちなみに英国King’s College of Londonが行ったシミュレーションによると、AIに核危機を想定した場合、用意した21のシナリオのうち、18のケースで全面的な核戦争に発展し、逆に危機を緩和しようとするシナリオは示されなかったという結果が出たとのことですが、これから推測できることとして、AIは戦闘に勝つことを最優先にし、そのためには核兵器を使用することを躊躇わない可能性があるのではないかと考えられます。

ところで私が紛争調停のお仕事と並行して関わっているへいわ創造機構ひろしま(HOPe)のお仕事では【遅くとも2045年までに核兵器を廃絶すること】を目標に掲げ、核兵器なき真に持続可能な世界づくりのための提案を行い、関心国と共に交渉プロセスへの反映を目指していますが、その提案の中で【核抑止に頼らない新たな安全保障体制の構築】を謳っています。

このゴール設定に対して異論を唱える国はないのですが、「では具体的にどのような代替案が考えられるのか?」と問われた際、答えに窮することがあります。

それは仮に核兵器の廃絶に合意したとしても、抑止力の必要性の議論も廃絶されるわけではなく、「核兵器に頼らずとも、戦争の勃発を防ぎ、他国が攻撃を思いとどまる“何か”が必要」ということには変わりがないはずです。

そのような際、“代替”で考えられやすいのがAI兵器であったり、精密誘導ミサイルのような最新鋭の非核の通常兵器であったりします。場合によっては、実際に多くの死者を出しているSmall armsの拡充というアイデアに繋がってしまうかもしれません。本当にそれでよいのでしょうか?

光栄なことに毎年2月、ミュンヘン安全保障会議に参加する機会を頂き、その次の週にはイスタンブールで開催される武器商人のExpoに招待いただきますが、前者でAI兵器の倫理についての懸念や国際平和の必要性が論じられる反面、後者の会議では、各国の企業が競って最新鋭の兵器およびシステムを紹介し、AI兵器がいかに“使う側の人的犠牲を減らすか”について誇らしげに報告されるという、ジレンマに毎年直面しています。

この“2月の経験・ジレンマ”こそが、今、私たちが直面している国際社会で行われる“べき論”と、実際に戦争の現場において行われている現場の議論とのズレ、もしかしたらダブルスタンダードの正体です。

この記事の著者・島田久仁彦さんのメルマガ

初月無料で読む

print

  • 「イランの核を阻止」掲げながら核使用チラつかせる、トランプとネタニヤフ究極の“笑止千万なダブルスタンダード”
    この記事が気に入ったら
    いいね!しよう
    MAG2 NEWSの最新情報をお届け