二つ目は、米国によるイランの攻撃の際に、米軍がAnthropicのClaudeをデータ解析に活用した(AIが意思決定したわけでも、兵器を直接制御したわけでもありません)、という報道です(参照:US military reportedly used Claude in Iran strikes despite Trump’s ban)。
上に紹介したトランプ大統領の「Claude禁止令」と矛盾するように感じると思いますが、これは純粋にタイミングによるものです。米軍は、Anthropicとの正式な契約を結ぶ前から、軍事戦略・戦術の策定に必要なデータ分析のプロセスでClaudeを使い始めていたのです。
ちなみに、同様のペンタゴンとの契約は、OpenAIだけでなく、xAIも交わしていますが(Googleはペンタゴンに対してクラウドは提供していますが、AIモデルは提供していません)、両社からは、まだ本件に直接言及する声明は出ていません。
OpenAIやGoogleの社員の多くはAnthropicの立ち位置を支持することを表明しており(Anthropic Pentagon Stand: Defiant Google and OpenAI Employees Rally Against Military AI Demands)、この件がAnthropicの排除だけで収まる話ではなくなりつつある点が注目に値します。
AIが今後の軍事活動において非常に重要な役割を果たすことが明確になった今、最先端のAI技術を持つ会社、および、それらの会社で働く研究者やエンジニアたちの立ち位置や役割が、安全保障上、大きな意味を持つようになった点は、人類の歴史上、大きな転換期だと言えます。
「第三次世界大戦の勃発を避けられるかどうか」「万が一起こった場合に、どんな結末になるか」などが、これらの企業やそこで働く人たちの意思によって大きく影響を受ける時代になった、ということを意味するのです。
【参考資料】
- Exclusive: Pentagon pushing AI companies to expand on classified networks, sources say
- Anthropic Played 5D Chess Against the Pentagon and OpenAI
【追記】
ペンタゴンとAnthropicの関係が悪くなった原因が判明しました。Under Secretary of War(戦争省のナンバー2)のEmil Michaelによると、米軍がベネズエラに対して軍事作戦を発動した際に、AnthropicのAIがその作戦に使われたかどうかをAnthropicの重役の一人がPalantirに尋ね、それが戦争省に伝わったことがきっかけだったそうです(参照)。それを受けて、戦争省側が「合法な限りどんな用途にでも使って良い」という契約書にサインするようにAnthropicに迫り、それにAnthropicがサインをしなかった結果の破談だったそうです。
一方、「Palantir Faces Costly AI Overhaul After Trump Administration Bans Anthropic From Pentagon Work: Report」は、AnthropicのAIモデルの上に軍向けのソフトウェアを作っていたPalantirが、急遽、別のAIモデルに切り替えなければならなくなったことを伝えています。
その作業にどのくらいの手間がかかるのかは不明ですが、今回のトランプ大統領の命令の影響が、Anthropicにとどまらず、PalantirのようなClaudeを活用する企業にまで大きな影響を与え始めています。
(本記事は『週刊 Life is beautiful』2026年3月10日号を一部抜粋したものです。「私の目に止まった記事(中島氏によるニュース解説)」、読者質問コーナーなどメルマガ全文はご購読のうえお楽しみください。初月無料です )
image by: JRdes / Shutterstock.com









