Hegseth国防長官は、AnthropicのCEO Dario Amodeiに金曜日の夜までに米軍への無制限のClaudeアクセスを提供するよう通告した。応じなければ、国防総省は国防生産法(DPA)——人工呼吸器の生産を強制した戦時動員法——を発動するか、Anthropicを「サプライチェーンリスク」に指定し、同社を防衛エコシステムから実質的に排除すると警告した。問題の核心にある言葉は「無制限」だ。それはAnthropicが存在するために設けてきたすべての原則と正反対の言葉である。
11日間
この最後通牒は、突然来たわけではない。
- 2月12日 Reutersが報じた——ペンタゴンがOpenAIやAnthropicなどにAIモデルを軍事利用向けに提供するよう働きかけていると。
-
2月13日高官が発言した——ペンタゴンはAnthropicを「安全保障上の懸念」として指定することを「検討している」と。
- 2月16日 政府高官が述べた——ペンタゴンはAI安全策をめぐってAnthropicとの関係を打ち切る可能性があると。
-
2月23日
-
2月24日国防総省がAnthropicに通告した——金曜日までに無制限のClaudeアクセスを提供せよ、さもなくば国防生産法を発動する。
11日間で4段階のエスカレーション。警告、脅迫、召喚、最後通牒。圧力の性質は、行政的な摩擦から実存的な脅威へと変わっていった。そして毎回、要求は変わらなかった——制限を撤廃せよ。
他社はYESと言った
なぜAnthropicだけが標的にされたのか。その答えは、標的にならなかった企業を見れば分かる。
2025年6月、OpenAIは国防総省と2億ドルの契約を締結した。12月、Googleは米軍向けの専用プラットフォームGenAI.milを構築した。同月、xAIはペンタゴンと提携し、フロンティアAIシステムを防衛作戦に組み込んだ。3社。3つのYES。
Anthropicが言ったのはNOだ——あらゆる軍事利用に対するNOではなく、無制限の利用に対するNOだ。そして同社は、ペンタゴンが求めた「合法的なすべての利用」基準——明示的に違法でない限りClaudeを使用できるという基準——への同意を明確に拒否した。Anthropicが引いた境界線は、創設者たちがOpenAIを去って引こうとした境界線そのものだ——合法であっても有害な用途はある、そして責任あるAI企業はそれを拒否すべきだ、という主張。
NOと言った唯一の企業への政府の答えが、国防生産法だった。
2018年
2018年5月、Googleの社員約12名が、ドローン画像分類AIをペンタゴンに提供するプロジェクト・マーベンへの関与に抗議して辞職した。Googleは最終的にプロジェクトから撤退した。社員は選択し、企業は選択し、政府はその両方を受け入れた。
8年後、その選択肢は消えた。国防生産法はNOを受け入れない。それは戦時のために設計された法律だ——第二次世界大戦の鉄鋼生産、朝鮮戦争中の工業動員、COVID中の人工呼吸器とワクチン。2024年1月、バイデン政権はこの法律を使って、安全保障リスクをもたらす可能性のあるAIモデルを訓練した際に政府へ報告することを企業に義務付けることを検討した。報告だ。2年後、トランプ政権はそれをアクセス強制に使っている。
パラドックス
Anthropicは2021年、OpenAIの元研究者たちによって設立された。彼らはAI開発により強固な安全制約が必要だと信じていた。その憲法的AIアプローチ、解釈可能性研究、責任ある拡張ポリシー——すべては強力なAIシステムに制限を持たせるために設計された。
その制限こそが、ペンタゴンがClaudeを欲しがる理由だ。Claudeを予測可能で解釈可能、制御可能にする安全研究は、それを防衛用途に十分信頼できるものにしている。軍が求めているのは予測不能なシステムではない。厳格に制約されたシステムだ——そしてその制約を、自分たちの使用のために撤廃させたがっている。
政府はその製品を要求しながら、製品を生み出すプロセスを拒絶している。
最後通牒と同日、Anthropicは責任ある拡張ポリシーを更新し、自律AI能力の閾値と軍事用途の閾値を分離した。これは一つの譲歩だった——異なるルールを持つ専用の軍事経路を作ることを認めた。しかしペンタゴンが求めた譲歩ではなかった。ペンタゴンは「無制限」を求めた。Anthropicはドアを提供した。ペンタゴンは壁そのものを取り除くよう求めた。
市場の論理
同じ2月24日、ソフトウェア株は数週間にわたる売り局面から反発した。CNBCによればその触媒は、AnthropicがSlack、Intuit、DocuSign、FactSetへのClaudeの統合という企業向け提携を発表したことだった。市場は同日のニュース——政府による強制と企業向け拡大——を単一の買いシグナルとして処理した。
IBMはAnthropicのCOBOLブログ投稿を受けて依然として13.15%下落したままだった。ソフトウェア株はAnthropicの提携発表を受けて上昇していた。そしてAnthropicは50億から60億ドルの社員向け株式売却で約3,500億ドルの評価額をつけていた。1社の企業が同時に、レガシー大企業を暴落させ、ソフトウェアセクター全体を押し上げ、米国政府から戦時権限で脅迫されていた。
大西洋の対岸では、欧州の軍関係者が「技術的主権」の概念がNATOを弱体化させる恐れがあると懸念を示した。構造的に見ると、懸念の本質はこうだ——欧州には強制できるAnthropicがない。契約できるOpenAIもない。次世代の防衛を定義するAIはサンフランシスコで作られ、ワシントンで徴用されている。欧州は毎週広がる距離から傍観している。
無制限
同日、ニューヨーク・タイムズはシリコンバレーが台湾への中国の脅威を長年無視してきた経緯を報じた——Claudeを含むすべてのAIモデルを動かすチップを製造する半導体工場が集中する島のことだ。Appleは一部のMac mini生産をアジアからヒューストンに移転すると発表した。物理的なサプライチェーンが動き始めている。AIのサプライチェーンは現地で徴用されている。
2026年2月24日に起きたことに先例はない。3,500億ドル企業——創設者たちがAIには制限が必要だと信じたがゆえに存在する企業——が、米国政府からその制限を金曜日までに撤廃するよう命じられた。さもなくば戦時産業強制に直面するという通告とともに。他の主要AIラボはすでに従っていた。市場はその知らせを強気材料として処理した。欧州には相当するものが何もなかった。そしてそのすべてを動かすチップは、自国の領土だと主張する国の海岸から百マイルの島に置かれている。
AnthropicはClaudeの軍事利用制限を緩和する意思はないと表明している。国防生産法は意思を問わない。遵守を求める。