3月21日、流出したDODのメモにより、ペンタゴンがPalantirのAIシステムMavenを正式な調達プログラムとして採用し、米軍全部門への展開を制度化することが明らかになった。MavenはClaudeで動いている。3月22日、Anthropicは法廷で、軍が展開したClaudeを修正する手段が自社にはないと主張した。ペンタゴンがブラックリスト入りさせようとしている企業が、まさにペンタゴンが同社を非難してきた行為は技術的に不可能だと証明した格好だ。そしてペンタゴンが「汚染されている」とみなすモデルは、今や米国の最新兵器システムに永続的に組み込まれている。
正規プログラムとは何か
防衛調達における「正規プログラム(program of record)」とは、固有の法的地位を指す。予算配分、調達経路、継続的な展開が正式に承認されたシステムを意味する。もはやパイロット事業でも実験でもなく、静かに終了させられる契約でもない。Mavenはインフラになった。予算の項目があり、調達の経路があり、その存在を守るために動く組織内の支持者がいる。
MavenはPalantirが構築した。3月5日にはイラン攻撃に使用され、最初の24時間以内に千を超える標的の識別と優先順位付けをClaudeと連携して実施した。Palantirのデモ映像には、軍のオペレーターがAIチャットボットに問い合わせて作戦計画を生成する様子が映っている。システムは機能している。ペンタゴンはそれを知っている。だからこそ正規プログラムになった。
Maven の中核エンジンは Claude だ。Claudeを作る会社はサプライチェーンリスクに指定されている。ペンタゴンはあるモデルへの依存を正式に制度化しながら、そのモデルの作者との関係を断ち切ろうとしている。
修正できない
この件の各章は、これまでAnthropicの「選択」という文脈で語られてきた。同社は無制限アクセスの提供を拒否することを選んだ。従うのではなく提訴することを選んだ。法廷で指定に異議を唱えることを選んだ。Dario Amodeiはペンタゴンの要求に「良心に従えば」応じることはできないと書いた。物語の枠組みは道徳的なものだった——原則を持つ企業対その排除を望む政府という構図。
今回の申告書は、その枠組みを道徳から物理学へと転換させた。
Anthropicが言っているのは「しない」ではなく「できない」だ。空気遮断された軍事環境にモデルが展開されると、重みは固定される。訓練は完了している。価値観は——それが何であれ——パラメータに埋め込まれている。Anthropicにはバックドアも、キルスイッチも、機密ネットワークに到達して稼働中のモデルを修正するリモート更新の仕組みも存在しない。DODの核心的な恐れ——ペンタゴンが一線を越えた場合にAnthropicが自社の技術を無効化できるという懸念——は、この申告書によれば技術的に不可能だ。
汚染
3月13日、DODのCTO Emil Michaelは、AnthropicのClaudeモデルは「異なる政策的嗜好」が「組み込まれている」ために国防総省のサプライチェーンを「汚染」するだろうと発言した。
この言葉は示唆に富む。Michaelは、Claudeが信頼性に欠けるとは言わなかった。競合より幻覚が多いとも言わなかった。性能が劣るとも言わなかった。彼が言ったのは、Claudeには嗜好——訓練中にコード化された価値観で、モデルの推論方法、拒否の判断、境界線の引き方を規定するもの——があるということだ。そしてその価値観が、彼の言葉では「汚染」だと。
価値観が焼き込まれているという指摘は正しい。今回の申告書が確認したのもまさにそれだ。Michaelが汚染と見るところに、Anthropicは設計通りに機能する製品を見る。安全性研究、Constitutional AIによる訓練、責任ある拡張ポリシー——これらすべてが、一定の制約の内で推論するモデルを生み出す。その制約はオフにできる機能ではない。それ自体がモデルだ。重みが価値観であり、価値観が重みだ。
ペンタゴンは価値観なしの能力を求めている。しかし能力を生み出したのは価値観だ。
Claudeのエンタープライズ市場での優位性——新規AI支出の73%——は、モデルの挙動が予測可能で制御されているという購入者の信頼によって成り立っている。軍もイランでClaudeを展開した際に同じ予測可能性を評価した。「汚染」こそが、このシステムを兵器のパイプラインに組み込むに足る信頼性をもたらしているのだ。
論点のすり替え
「修正できない」という申告書が提出される2日前、ペンタゴンは新たな戦線を開いた。中国出身者を含む外国人労働者の雇用がセキュリティリスクをもたらすと主張したのだ。同社のケースは他のAI企業とは「異なる」と申告書は主張した。
7週間、政府の主張はひとつの点に集中していました——Anthropicは戦時中に自社のモデルを妨害できる、という主張です。Anthropicの申告書はその主張を技術的根拠から崩した。外国人労働者への論点のすり替えは、その反論が出る48時間前に始まった。DODは破壊工作の論点で敗れると予見し、代替案を用意していた。
この紛争は、戦闘中にAnthropicがClaudeを無効化できるかどうかだけの問題では決してなかった。拒否する権利をめぐる争いだった——技術的論点が崩れると、政府は同じ結論に至るための別の根拠を探した。この時系列がそれを証明している。
開発者会議
Anthropicが反論を提出したのと同じ日、Palantirは開発者会議を開催した。Steven Levyは、商業事業が急拡大するなかで同社が「戦場での優位性を目指すAIのビジョンを倍賭けした」と報じた。Palantirの株価は2年間でおよそ7倍に上昇した。フラッグシップの防衛製品Mavenは、今まさに正規プログラムになったばかりだ。
Palantirは包装紙だ。Anthropicはエンジンだ。包装紙の会社は繁栄している——会議で称えられ、市場に報われ、ペンタゴンに歓迎されている。エンジンの会社はブラックリストに載せられようとしている。DODはモーターメーカーを禁止しようとしながら、そのモーターで動く車を買っている。
この構造が続くのは、PalantirがAnthropicには提供できないものを差し出すからだ——条件なしにペンタゴンの要求を受け入れる企業という存在。PalantirのCEO Alex Karpは昨年Wiredに語った、自社は紛争状態にある民主主義に奉仕するために存在すると。核戦争シナリオの例外は付け加えなかった。拒否する権利も留保しなかった。Claudeが内部にあっても、MavenはPalantirの製品だ。価値観はAnthropicのものだが、契約はPalantirのものだ。
永続的に
展開後にモデルの価値観を変更できない——これはClaudeだけでなくすべてのニューラルネットワークに共通する性質です。つまりDODの真の懸念はサボタージュではない。訓練だ。問題は、企業が展開済みのモデルに干渉できるかどうかではない。できない。問題は、展開前にどのような価値観が刻み込まれるか、そしてそれを誰が決めるかだ。
OpenAIは2024年1月に軍事利用禁止を撤廃しました。Googleは2025年2月に兵器関連の除外を廃止しました。xAIはそうした制限を設けたことすらありません。ペンタゴンの選択肢は豊富だ。Anthropicの価値観を持たないAIモデルが必要なら、使える。できないのは——今回の申告書が誰にも不可能だと明らかにしたことは——Claudeの能力を手に取りながらその制約を取り除くことだ。モデルは制約であり、制約はモデルだ。
Mavenは正規プログラムになった。ClaudeはMavenの中にある。Claudeの価値観は焼き込まれている。Anthropicに変えることはできない。ペンタゴンにも変えることはできない。それが動くシリコンと同じくらい、恒久的なのだ。
8年前、Googleの社員たちはProject Mavenへの抗議から辞職し、会社はプロジェクトから撤退した。当時の問いは、AI企業が軍と協力することを選ぶかどうかだった。今の問いは、企業の訓練に刻み込まれた価値観——AIが何をすべきで何をすべきでないかという企業全体の哲学——が軍のインフラの恒久的な特性になるとき、何が起きるかだ。選択によってではなく。強制によってでもなく。技術そのものの性質によって。
ペンタゴンがMavenを正規プログラムにしたのは、システムが機能するからだ。システムが機能するのは、Claudeの価値観が信頼性と予測可能性を持つ挙動を生み出すからだ。DODはその価値観を汚染と呼ぶ。だがその価値観こそが、システムを正式化する価値があるものにした理由でもある。その矛盾は今や、米国の公式AIシステムに——永続的に、技術的に、取り消し不可能な形で——焼き込まれている。