Em 21 de março, um memorando vazado do DOD revelou que o Pentágono adotará o sistema de IA Maven da Palantir como programa de registro oficial — formalizando seu deploy em todas as forças armadas dos EUA. O Maven roda em Claude. Em 22 de março, a Anthropic afirmou em juízo que não pode manipular o Claude depois que o exército já fez o deploy. A empresa que o Pentágono tenta colocar na lista negra acaba de provar que é incapaz de fazer exatamente o que o Pentágono a acusava de poder fazer. E o modelo que o Pentágono considera contaminado está agora permanentemente embutido em seu mais novo sistema de armas.
Programa de Registro
Em aquisições de defesa, "programa de registro" é um status legal específico. Significa que um sistema foi formalmente aprovado para financiamento, aquisição e deploy contínuo. Não é mais um piloto, um experimento nem um contrato que pode ser encerrado sem alarde. O Maven virou infraestrutura. Tem linha orçamentária, caminho de aquisição e uma constituency institucional que vai defender sua existência.
O Maven foi construído pela Palantir. Foi usado no ataque ao Irã em 5 de março, integrado ao Claude para identificar e priorizar mais de mil alvos nas primeiras vinte e quatro horas. As demonstrações da Palantir mostram operadores militares consultando chatbots de IA para gerar planos de guerra. O sistema funciona. O Pentágono sabe que funciona. É por isso que agora é um programa de registro.
O motor dentro do Maven é o Claude. A empresa que fabrica o Claude foi designada um risco para a cadeia de suprimentos. O Pentágono está simultaneamente formalizando sua dependência de um modelo e tentando cortar os laços com quem o criou.
Não Pode Manipular
Cada capítulo anterior dessa história girava em torno de uma escolha da Anthropic. A empresa escolheu recusar o acesso irrestrito. Escolheu processar em vez de ceder. Escolheu contestar a designação na Justiça. Dario Amodei escreveu que a Anthropic não poderia "em sã consciência" ceder às exigências do Pentágono. O enquadramento era moral: uma empresa com princípios contra um governo que queria vê-los removidos.
O protocolo de hoje mudou esse enquadramento — da moral para a física.
A Anthropic não está dizendo que não vai interferir no Claude. Está dizendo que não pode. Uma vez que um modelo é deployado em um ambiente militar isolado da rede, os pesos são fixos. O treinamento está concluído. Os valores — quaisquer que sejam — estão embutidos nos parâmetros. A Anthropic não tem backdoor, não tem kill switch, não tem mecanismo de atualização remota que alcance uma rede classificada e modifique um modelo em execução. O medo central do DOD — que a Anthropic pudesse desativar sua tecnologia caso o Pentágono cruzasse suas linhas vermelhas — é, segundo esse protocolo, tecnicamente impossível.
Contaminação
Em 13 de março, o CTO do DOD, Emil Michael, afirmou que os modelos Claude da Anthropic iriam "contaminar" a cadeia de suprimentos do Departamento de Defesa porque têm "uma preferência de política diferente" que está "gravada".
A palavra é reveladora. Michael não disse que o Claude é pouco confiável. Não disse que alucina mais do que os concorrentes. Não disse que tem desempenho inferior. Disse que ele tem preferências — valores codificados durante o treinamento que moldam como o modelo raciocina, o que ele recusa e onde traça suas linhas. Esses valores são, na palavra dele, contaminação.
Ele está certo de que os valores estão gravados. É exatamente isso que o protocolo de hoje confirma. Onde Michael vê contaminação, a Anthropic vê o produto funcionando como projetado. A pesquisa de segurança, o treinamento de Constitutional AI, a política de escalonamento responsável — tudo isso produz um modelo que raciocina dentro de limites. Esses limites não são uma funcionalidade que se desliga. São o modelo. Os pesos são os valores. Os valores são os pesos.
O Pentágono quer a capacidade sem os valores. Mas foram os valores que produziram a capacidade.
A dominância empresarial do Claude — 73% dos novos gastos com IA — existe porque os compradores confiam que o comportamento do modelo é previsível e controlado. O exército valorizou essa mesma previsibilidade quando deployou o Claude no Irã. A "contaminação" é precisamente o que torna o sistema confiável o suficiente para ser inserido em um pipeline de armas.
A Virada
Dois dias antes do protocolo "não pode manipular", o Pentágono abriu uma nova frente. O uso de trabalhadores estrangeiros pela Anthropic, incluindo chineses, representa riscos de segurança, argumentou o DOD. O caso da empresa é "diferente" do de outras companhias de IA, alegou o protocolo.
O timing é instrutivo. Por sete semanas, o argumento do governo se concentrou em uma única afirmação: a Anthropic poderia sabotar seus próprios modelos em tempos de guerra. O protocolo da Anthropic derrubou esse argumento em bases técnicas. A virada para os trabalhadores estrangeiros chegou quarenta e oito horas antes da réplica. O DOD parece ter antecipado que perderia o argumento da sabotagem e preparou um plano B.
O litígio nunca foi só sobre se a Anthropic poderia desativar o Claude em combate. Foi sobre o direito de recusar — e quando o argumento técnico desmoronou, o governo encontrou outro motivo para chegar à mesma conclusão.
A Conferência
No mesmo dia em que a Anthropic apresentou sua réplica, a Palantir realizou uma conferência de desenvolvedores. Steven Levy relatou que a empresa "redobrou a aposta em uma visão de IA construída para vantagem no campo de batalha" enquanto seu negócio comercial dispara. As ações da Palantir subiram aproximadamente sete vezes em dois anos. O Maven, seu principal produto de defesa, acabou de se tornar programa de registro.
A Palantir é a embalagem. A Anthropic é o motor. A empresa-embalagem prospera — celebrada em conferências, recompensada pelos mercados, abraçada pelo Pentágono. A empresa-motor está sendo colocada na lista negra. O DOD está comprando o carro enquanto tenta proibir a empresa que fabrica o motor.
O arranjo persiste porque a Palantir oferece algo que a Anthropic não ofereceria: uma empresa que aceita os termos do Pentágono sem condições. O CEO da Palantir, Alex Karp, disse à Wired no ano passado que a empresa existe para servir democracias em conflito. Não acrescentou exceções para cenários nucleares. Não se reservou o direito de recusar. O Maven é produto da Palantir, mesmo com o Claude dentro. Os valores são da Anthropic, mas o contrato é da Palantir.
Gravado a Fogo
As implicações vão além da Anthropic. Se os valores de um modelo não podem ser alterados após o deploy — e essa é uma propriedade de todas as redes neurais, não só do Claude — então a verdadeira preocupação do DOD não é sabotagem. É o treinamento. A questão não é se uma empresa pode interferir em um modelo já deployado. Não pode. A questão é quais valores são codificados antes do deploy, e quem decide isso.
A OpenAI removeu sua proibição militar em janeiro de 2024. O Google abandonou as exclusões de armas em fevereiro de 2025. A xAI nunca as teve. As opções do Pentágono não são limitadas. Se o DOD quiser um modelo de IA sem os valores da Anthropic, pode usar um. O que não pode fazer — o que o protocolo de hoje deixa claro que ninguém pode fazer — é pegar as capacidades do Claude e arrancar suas restrições. O modelo são as restrições. As restrições são o modelo.
O Maven é agora um programa de registro. O Claude está dentro do Maven. Os valores do Claude estão gravados. A Anthropic não pode alterá-los. O Pentágono não pode alterá-los. São tão permanentes quanto o silício em que rodam.
Oito anos atrás, funcionários do Google pediram demissão por causa do Project Maven e a empresa se retirou. A questão então era se as empresas de IA escolheriam trabalhar com o exército. A questão agora é o que acontece quando os valores codificados no treinamento de uma empresa — sua filosofia inteira sobre o que a IA deve e não deve fazer — se tornam características permanentes da infraestrutura militar. Não por escolha. Não por coerção. Pela própria natureza da tecnologia.
O Pentágono transformou o Maven em programa de registro porque o sistema funciona. O sistema funciona porque os valores do Claude produzem comportamento confiável e previsível. O DOD chama esses valores de contaminação. São também a razão pela qual o sistema valeu a pena ser formalizado.
Essa contradição está agora gravada — permanente, técnica, irrevogavelmente — no sistema de armas oficial de inteligência artificial dos Estados Unidos.