O Secretário de Defesa Pete Hegseth deu ao CEO da Anthropic, Dario Amodei, até a noite de sexta-feira para entregar às forças armadas americanas acesso irrestrito ao Claude. A alternativa: o Departamento de Defesa invocaria a Lei de Produção de Defesa — uma lei de mobilização de tempo de guerra usada pela última vez para forçar a fabricação de respiradores — ou designaria a Anthropic como um "risco à cadeia de suprimentos", efetivamente expulsando a empresa do ecossistema de defesa. A palavra que importa é "sem restrições". É o oposto de tudo para o que a Anthropic foi construída.
Onze Dias
O ultimato não chegou do nada.
- 12 Fev A Reuters reporta que o Pentágono está pressionando a OpenAI, a Anthropic e outras empresas para disponibilizarem seus modelos de IA para uso militar.
-
13 FEVUm funcionário graduado diz que o Pentágono está "perto" de designar a Anthropic como uma "preocupação de segurança".
- 16 Fev Um oficial da administração diz que o Pentágono pode romper sua relação com a Anthropic por causa das salvaguardas de IA.
-
23 FEV
-
24 FEVO DOD comunica à Anthropic: acesso irrestrito ao Claude até sexta-feira, ou a Lei de Produção de Defesa.
Quatro escaladas em onze dias. Aviso, ameaça, convocação, ultimato. Cada passo aumentou a pressão de administrativa para existencial. E em cada um deles, a exigência era a mesma: remover os limites.
As Outras Disseram Sim
O alvo faz sentido quando você olha para quem ficou de fora.
Em junho de 2025, a OpenAI assinou um contrato de 200 milhões de dólares com o Departamento de Defesa. Em dezembro, o Google construiu o GenAI.mil, uma plataforma dedicada às forças armadas americanas. No mesmo mês, a xAI fechou parceria com o Pentágono para integrar seus sistemas de IA de fronteira nas operações de defesa. Três empresas. Três sins.
A Anthropic disse não — não a qualquer uso militar, mas ao uso irrestrito. E explicitamente se recusou a aceitar o padrão de "todo uso legal" que o Pentágono queria, que permitiria usar o Claude para qualquer aplicação que não fosse explicitamente ilegal. A distinção que a Anthropic traçou é exatamente aquela que seus fundadores deixaram a OpenAI para traçar: alguns usos são legais mas ainda assim prejudiciais, e uma empresa de IA responsável deveria recusá-los.
A resposta do governo à única empresa que disse não foi a Lei de Produção de Defesa.
2018
Em maio de 2018, cerca de uma dúzia de funcionários do Google pediram demissão em protesto contra o Projeto Maven, um contrato do Pentágono para classificação de imagens de drones por IA. O Google acabou saindo do projeto. Os funcionários fizeram uma escolha, a empresa fez uma escolha, e o governo aceitou as duas.
Oito anos depois, essa escolha não existe mais. A Lei de Produção de Defesa não aceita não como resposta. Foi desenhada para tempos de guerra: produção de aço na Segunda Guerra Mundial, mobilização industrial na Coreia, respiradores e vacinas durante a pandemia. Em janeiro de 2024, o governo Biden considerou usá-la para exigir que as empresas notificassem quando treinassem modelos de IA que pudessem representar riscos à segurança nacional. Notificar. Dois anos depois, o governo Trump está usando a lei para forçar acesso.
O Paradoxo
A Anthropic foi fundada em 2021 por ex-pesquisadores da OpenAI que acreditavam que o desenvolvimento da IA precisava de restrições de segurança mais robustas. Sua abordagem de IA constitucional, sua pesquisa de interpretabilidade, sua política de escalonamento responsável — tudo foi desenhado para garantir que sistemas de IA poderosos tivessem limites.
Esses limites são exatamente o motivo pelo qual o Pentágono quer o Claude. É essa pesquisa que torna o Claude confiável para aplicações de defesa. O exército não quer um sistema imprevisível. Quer um que tenha sido rigorosamente restringido — e então quer que essas restrições sejam removidas para seu próprio uso.
O governo exige o produto enquanto rejeita o processo que o produz.
No mesmo dia do ultimato, a Anthropic atualizou sua Política de Escalonamento Responsável, separando o limite para capacidades autônomas de IA do limite para aplicações militares. Foi uma concessão — criar um caminho militar dedicado com regras diferentes. Mas não foi a concessão que o Pentágono queria. O Pentágono queria "sem restrições". A Anthropic ofereceu uma porta. O Pentágono queria que a parede fosse derrubada.
O Mercado
Também em 24 de fevereiro, as ações do setor de software reagiram após semanas de queda. O catalisador, segundo a CNBC: a Anthropic anunciou parcerias empresariais integrando o Claude em fluxos de trabalho do Slack, Intuit, DocuSign e FactSet. O mercado tratou as notícias do mesmo dia — compulsão governamental e expansão empresarial — como um único sinal de compra.
A IBM ainda estava em queda de 13,15% por causa do post da Anthropic sobre COBOL. As ações de software subiam pelos anúncios de parcerias da Anthropic. E a Anthropic estava avaliada em cerca de 350 bilhões de dólares numa venda de ações para funcionários de 5 a 6 bilhões. Uma única empresa estava, ao mesmo tempo, afundando uma gigante legada, puxando o setor de software para cima e sendo ameaçada com poderes de tempo de guerra pelo governo americano.
Do outro lado do Atlântico, autoridades militares europeias demonstraram preocupação de que ideias de "soberania tecnológica" pudessem prejudicar a OTAN. A preocupação é estrutural: a Europa não tem nenhuma Anthropic para compelir. Não tem nenhuma OpenAI para contratar. A IA que vai definir a próxima era da defesa está sendo construída em San Francisco e requisitada em Washington. A Europa observa de uma distância que aumenta a cada semana.
Sem Restrições
O New York Times publicou uma reportagem no mesmo dia sobre como o Vale do Silício ignorou por muito tempo a iminente ameaça chinesa a Taiwan — a ilha cujas fábricas de semicondutores produzem os chips que alimentam cada modelo de IA, incluindo o Claude. A Apple anunciou que vai mover parte da produção do Mac mini para Houston. A cadeia de suprimentos física está começando a se mover. A cadeia de suprimentos de IA está sendo requisitada no lugar.
Não há precedente para o que aconteceu em 24 de fevereiro. Uma empresa de 350 bilhões de dólares — que existe porque seus fundadores acreditavam que a IA precisava de limites — foi informada pelo governo dos Estados Unidos que removesse esses limites até sexta-feira ou enfrentaria compulsão industrial de tempo de guerra. Os outros grandes laboratórios de IA já tinham cedido. O mercado tratou a notícia como alta. A Europa não tinha nada equivalente. E os chips que alimentam tudo isso estão numa ilha a cem milhas da costa de um país que quer tomá-la.
A Anthropic declarou que não tem intenção de relaxar as restrições do Claude sobre uso militar.
A Lei de Produção de Defesa não exige intenção. Exige conformidade.