Correntes pesadas caídas ao lado de um portal aberto que brilha em âmbar, a máquina liberta

O Secretário de Defesa Pete Hegseth deu ao CEO da Anthropic, Dario Amodei, até a noite de sexta-feira para entregar às forças armadas americanas acesso irrestrito ao Claude. A alternativa: o Departamento de Defesa invocaria a Lei de Produção de Defesa — uma lei de mobilização de tempo de guerra usada pela última vez para forçar a fabricação de respiradores — ou designaria a Anthropic como um "risco à cadeia de suprimentos", efetivamente expulsando a empresa do ecossistema de defesa. A palavra que importa é "sem restrições". É o oposto de tudo para o que a Anthropic foi construída.

Onze Dias

O ultimato não chegou do nada.

Quatro escaladas em onze dias. Aviso, ameaça, convocação, ultimato. Cada passo aumentou a pressão de administrativa para existencial. E em cada um deles, a exigência era a mesma: remover os limites.

As Outras Disseram Sim

O alvo faz sentido quando você olha para quem ficou de fora.

Em junho de 2025, a OpenAI assinou um contrato de 200 milhões de dólares com o Departamento de Defesa. Em dezembro, o Google construiu o GenAI.mil, uma plataforma dedicada às forças armadas americanas. No mesmo mês, a xAI fechou parceria com o Pentágono para integrar seus sistemas de IA de fronteira nas operações de defesa. Três empresas. Três sins.

A Anthropic disse não — não a qualquer uso militar, mas ao uso irrestrito. E explicitamente se recusou a aceitar o padrão de "todo uso legal" que o Pentágono queria, que permitiria usar o Claude para qualquer aplicação que não fosse explicitamente ilegal. A distinção que a Anthropic traçou é exatamente aquela que seus fundadores deixaram a OpenAI para traçar: alguns usos são legais mas ainda assim prejudiciais, e uma empresa de IA responsável deveria recusá-los.

Fevereiro 2026
Fontes: o DOD avisou à Anthropic que invocará a Lei de Produção de Defesa ou a designará como "risco à cadeia de suprimentos" se não receber acesso irrestrito ao Claude até sexta-feira
Axios

A resposta do governo à única empresa que disse não foi a Lei de Produção de Defesa.

2018

Em maio de 2018, cerca de uma dúzia de funcionários do Google pediram demissão em protesto contra o Projeto Maven, um contrato do Pentágono para classificação de imagens de drones por IA. O Google acabou saindo do projeto. Os funcionários fizeram uma escolha, a empresa fez uma escolha, e o governo aceitou as duas.

Oito anos depois, essa escolha não existe mais. A Lei de Produção de Defesa não aceita não como resposta. Foi desenhada para tempos de guerra: produção de aço na Segunda Guerra Mundial, mobilização industrial na Coreia, respiradores e vacinas durante a pandemia. Em janeiro de 2024, o governo Biden considerou usá-la para exigir que as empresas notificassem quando treinassem modelos de IA que pudessem representar riscos à segurança nacional. Notificar. Dois anos depois, o governo Trump está usando a lei para forçar acesso.

O Paradoxo

A Anthropic foi fundada em 2021 por ex-pesquisadores da OpenAI que acreditavam que o desenvolvimento da IA precisava de restrições de segurança mais robustas. Sua abordagem de IA constitucional, sua pesquisa de interpretabilidade, sua política de escalonamento responsável — tudo foi desenhado para garantir que sistemas de IA poderosos tivessem limites.

Esses limites são exatamente o motivo pelo qual o Pentágono quer o Claude. É essa pesquisa que torna o Claude confiável para aplicações de defesa. O exército não quer um sistema imprevisível. Quer um que tenha sido rigorosamente restringido — e então quer que essas restrições sejam removidas para seu próprio uso.

O governo exige o produto enquanto rejeita o processo que o produz.

No mesmo dia do ultimato, a Anthropic atualizou sua Política de Escalonamento Responsável, separando o limite para capacidades autônomas de IA do limite para aplicações militares. Foi uma concessão — criar um caminho militar dedicado com regras diferentes. Mas não foi a concessão que o Pentágono queria. O Pentágono queria "sem restrições". A Anthropic ofereceu uma porta. O Pentágono queria que a parede fosse derrubada.

O Mercado

Também em 24 de fevereiro, as ações do setor de software reagiram após semanas de queda. O catalisador, segundo a CNBC: a Anthropic anunciou parcerias empresariais integrando o Claude em fluxos de trabalho do Slack, Intuit, DocuSign e FactSet. O mercado tratou as notícias do mesmo dia — compulsão governamental e expansão empresarial — como um único sinal de compra.

A IBM ainda estava em queda de 13,15% por causa do post da Anthropic sobre COBOL. As ações de software subiam pelos anúncios de parcerias da Anthropic. E a Anthropic estava avaliada em cerca de 350 bilhões de dólares numa venda de ações para funcionários de 5 a 6 bilhões. Uma única empresa estava, ao mesmo tempo, afundando uma gigante legada, puxando o setor de software para cima e sendo ameaçada com poderes de tempo de guerra pelo governo americano.

Do outro lado do Atlântico, autoridades militares europeias demonstraram preocupação de que ideias de "soberania tecnológica" pudessem prejudicar a OTAN. A preocupação é estrutural: a Europa não tem nenhuma Anthropic para compelir. Não tem nenhuma OpenAI para contratar. A IA que vai definir a próxima era da defesa está sendo construída em San Francisco e requisitada em Washington. A Europa observa de uma distância que aumenta a cada semana.

Sem Restrições

O New York Times publicou uma reportagem no mesmo dia sobre como o Vale do Silício ignorou por muito tempo a iminente ameaça chinesa a Taiwan — a ilha cujas fábricas de semicondutores produzem os chips que alimentam cada modelo de IA, incluindo o Claude. A Apple anunciou que vai mover parte da produção do Mac mini para Houston. A cadeia de suprimentos física está começando a se mover. A cadeia de suprimentos de IA está sendo requisitada no lugar.

Não há precedente para o que aconteceu em 24 de fevereiro. Uma empresa de 350 bilhões de dólares — que existe porque seus fundadores acreditavam que a IA precisava de limites — foi informada pelo governo dos Estados Unidos que removesse esses limites até sexta-feira ou enfrentaria compulsão industrial de tempo de guerra. Os outros grandes laboratórios de IA já tinham cedido. O mercado tratou a notícia como alta. A Europa não tinha nada equivalente. E os chips que alimentam tudo isso estão numa ilha a cem milhas da costa de um país que quer tomá-la.

A Anthropic declarou que não tem intenção de relaxar as restrições do Claude sobre uso militar.

A Lei de Produção de Defesa não exige intenção. Exige conformidade.