登場するやいなや私たちの生活を大きく変えたAI。その影響は今や、戦争の行方すら左右する地点までに来ているようです。今回のメルマガ『週刊 Life is beautiful』では著名エンジニアの中島聡さんが、米国防総省とAI企業Anthropic(アンスロピック/アンソロピック)の攻防で浮かび上がった「AIの軍事利用」を巡る対立の構図を詳しく紹介。さらにこの一連の動きが、人類の歴史上の転換期だと言える理由を解説しています。
※本記事のタイトル・見出しはMAG2NEWS編集部によるものです/原題:戦争とAI
プロフィール:中島聡(なかじま・さとし)
ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシントン大学)。NTT通信研究所/マイクロソフト日本法人/マイクロソフト本社勤務後、ソフトウェアベンチャーUIEvolution Inc.を米国シアトルで起業。現在は neu.Pen LLCでiPhone/iPadアプリの開発。
戦争とAI
「軍事行動へのAIの応用」という観点から、二つの点でAnthropicが注目を集めました。
1つ目は、トランプ大統領による、ペンタゴン(国防省・戦争省)でのAnthropicのAIの利用を禁ずる命令です(参照:Trump directs US agencies to toss Anthropic’s AI as Pentagon calls startup a supply risk)。
トランプ大統領は、Anthropicを「サプライ・チェーン・リスクがある会社」と指定しましたが、これは以前に中国のHuaweiに与えたのと同じ強力な行政措置で、ペンタゴン自身による使用だけでなく、ペンタゴンに軍事品を納入する数千の会社にAnthropicのAIの使用を禁ずることになる、多大な影響力を持つ命令です。
Anthropicは、AIの軍事利用に関して、ペンタゴンと数ヶ月間に渡る交渉を続けてきましたが、AIを「武器の自動操縦」や「米国国内の人々の監視」には使わないという条項を契約書に入れるように主張するAnthropicと、より自由度の高い条件(「法に基づいたAIの活用に限定する」という文言)での契約を求めるペンタゴンとの隔たりが大きく、交渉が決裂してしまったそうです。
AnthropicのCEO、Dario Amodeiはこの件に関して、彼らの立ち位置を明確にする声明を出したので、詳しくはそちらをご覧ください(Statement from Dario Amodei on our discussions with the Department of War)。とても明確な立ち位置で、私も支持します(これによりAnthropicのブランド力が上がったと評価する人もいます)。将来的なIPOを視野に入れている同社にとっては、大きなダメージになっても不思議はない話です。
一方、AnthropicのライバルであるOpenAIは、ペンタゴンとの契約を交わしたことを、「Our agreement with the Department of War」というステートメントで発表しました。彼らも(Anthropicと同様に)AIによる「武器の自動操縦」と「米国国内の人々の監視」には反対する立場をとっていると表明していますが、ペンタゴン側が提示した「法に基づいたAIの活用に限定する」という「法的枠組みに依拠する文言」に同意したそうです(参照:Clock is ticking: Anthropic CEO vs. Pentagon)。
二社の違いを(右翼・左翼の)イデオロギーの違いにまで拡大解釈する人たちがいますが、実際のところは「AIの安全性」に関するポリシーの違いが鮮明化されたケースだと考えて良いと思います。
AnthropicのAmodei氏は、会社の設立当初から「AIの安全性」を強く訴えており、どこに線を引くべきかを明確にして来ました。法律は政治状況でいかようにでも変更できるため、「法に基づいたAIの活用」では線引きが不十分との立場です。
それに対して、OpenAIのAltman氏は、表面的には「AIの安全性」の重要性を支持しつつ、必要以上の制限を加えることは技術の進歩を妨げることだという姿勢を貫いて来たので、ペンタゴンが提示した文言で十分だと判断したのでしょう。
この記事の著者・中島聡さんのメルマガ
二つ目は、米国によるイランの攻撃の際に、米軍がAnthropicのClaudeをデータ解析に活用した(AIが意思決定したわけでも、兵器を直接制御したわけでもありません)、という報道です(参照:US military reportedly used Claude in Iran strikes despite Trump’s ban)。
上に紹介したトランプ大統領の「Claude禁止令」と矛盾するように感じると思いますが、これは純粋にタイミングによるものです。米軍は、Anthropicとの正式な契約を結ぶ前から、軍事戦略・戦術の策定に必要なデータ分析のプロセスでClaudeを使い始めていたのです。
ちなみに、同様のペンタゴンとの契約は、OpenAIだけでなく、xAIも交わしていますが(Googleはペンタゴンに対してクラウドは提供していますが、AIモデルは提供していません)、両社からは、まだ本件に直接言及する声明は出ていません。
OpenAIやGoogleの社員の多くはAnthropicの立ち位置を支持することを表明しており(Anthropic Pentagon Stand: Defiant Google and OpenAI Employees Rally Against Military AI Demands)、この件がAnthropicの排除だけで収まる話ではなくなりつつある点が注目に値します。
AIが今後の軍事活動において非常に重要な役割を果たすことが明確になった今、最先端のAI技術を持つ会社、および、それらの会社で働く研究者やエンジニアたちの立ち位置や役割が、安全保障上、大きな意味を持つようになった点は、人類の歴史上、大きな転換期だと言えます。
「第三次世界大戦の勃発を避けられるかどうか」「万が一起こった場合に、どんな結末になるか」などが、これらの企業やそこで働く人たちの意思によって大きく影響を受ける時代になった、ということを意味するのです。
【参考資料】
- Exclusive: Pentagon pushing AI companies to expand on classified networks, sources say
- Anthropic Played 5D Chess Against the Pentagon and OpenAI
【追記】
ペンタゴンとAnthropicの関係が悪くなった原因が判明しました。Under Secretary of War(戦争省のナンバー2)のEmil Michaelによると、米軍がベネズエラに対して軍事作戦を発動した際に、AnthropicのAIがその作戦に使われたかどうかをAnthropicの重役の一人がPalantirに尋ね、それが戦争省に伝わったことがきっかけだったそうです(参照)。それを受けて、戦争省側が「合法な限りどんな用途にでも使って良い」という契約書にサインするようにAnthropicに迫り、それにAnthropicがサインをしなかった結果の破談だったそうです。
一方、「Palantir Faces Costly AI Overhaul After Trump Administration Bans Anthropic From Pentagon Work: Report」は、AnthropicのAIモデルの上に軍向けのソフトウェアを作っていたPalantirが、急遽、別のAIモデルに切り替えなければならなくなったことを伝えています。
その作業にどのくらいの手間がかかるのかは不明ですが、今回のトランプ大統領の命令の影響が、Anthropicにとどまらず、PalantirのようなClaudeを活用する企業にまで大きな影響を与え始めています。
(本記事は『週刊 Life is beautiful』2026年3月10日号を一部抜粋したものです。「私の目に止まった記事(中島氏によるニュース解説)」、読者質問コーナーなどメルマガ全文はご購読のうえお楽しみください。初月無料です )
image by: JRdes / Shutterstock.com