Em 4 de março de 2026, o The Information publicou um memorando interno vazado em que Dario Amodei chamava o contrato da OpenAI com o Departamento de Defesa de "teatro de segurança". No mesmo dia, a Reuters reportou que alguns dos próprios investidores da Anthropic estavam pressionando a empresa a desescalar o conflito com o Pentágono. Sam Altman defendeu o contrato numa reunião geral com os funcionários da OpenAI, dizendo que a reação foi exagerada — e depois um porta-voz da OpenAI informou que Altman "tinha dito algo errado" sobre a empresa buscar contratos adicionais com o Departamento de Defesa. Um CEO escalando. Outro sendo corrigido pelo próprio time de comunicação. E os financiadores da Anthropic, presos entre os dois, escolhendo um lado que ninguém esperava que escolhessem.
Sessenta Bilhões
A Anthropic captou mais de 60 bilhões de dólares de mais de 200 investidores. A rodada mais recente — uma Série G de 30 bilhões liderada pela GIC e pela Coatue em fevereiro de 2026 — foi anunciada três semanas antes de a pressão dos investidores vir a público. Antes dessa, uma Série F de 13 bilhões em setembro de 2025. Antes dessa, uma Série E de 3,5 bilhões. Cada rodada maior que a anterior, cada avaliação mais alta, todas apostando na mesma coisa: segurança como vantagem competitiva.
A tese funcionou. A receita anualizada da Anthropic chegou a 14 bilhões de dólares em fevereiro de 2026 — crescendo mais de dez vezes ao ano nos últimos três anos. A pesquisa empresarial da a16z mostrou que a Anthropic está conquistando adoção entre CIOs mais rápido do que qualquer outro fornecedor de IA. A Microsoft se tornou um dos principais clientes da Anthropic. O desenvolvimento interno da Apple "roda sobre a Anthropic neste momento".
Os investidores que colocaram 60 bilhões estavam comprando uma aposta específica: que a empresa de IA construída sobre segurança venceria o mercado corporativo porque empresas corporativas querem segurança. Há cinco semanas, os números validaram essa aposta. Os 14 bilhões de receita anualizada eram a prova.
A Ameaça
Aí entrou a Lei de Produção de Defesa, e o cálculo mudou.
A LPD não é uma questão de receita. Perder contratos com o Pentágono custaria algum negócio à Anthropic, mas a empresa cresce rápido o suficiente sem receita militar para sustentar sua trajetória. A ameaça não é perder dinheiro. É perder controle. Se o governo invocar a LPD, pode obrigar a Anthropic a fornecer acesso ao Claude sem as restrições de segurança que a empresa considera inegociáveis. Se designar a Anthropic como risco à cadeia de suprimentos, contratantes de defesa e indústrias adjacentes podem parar de trabalhar com a empresa por completo.
Para os investidores, não se trata do orçamento de IA do Pentágono. Trata-se do que acontece com 60 bilhões de dólares em equity se o governo transformar a Anthropic numa empresa pária — ou assumir o controle operacional do modelo dela.
A Axios reportou que o financiamento de mais de 60 bilhões de dólares da Anthropic veio de mais de 200 investidores, metade dos quais entrou nas rodadas mais recentes. Muitos desses investidores escreveram cheques porque segurança era a tese. Agora alguns pressionam a empresa a comprometer a segurança — porque a alternativa, a LPD, pode destruir a tese junto com o investimento deles.
A Escalada
A resposta de Amodei não foi desescalar. Foi chamar a alternativa pelo que ele vê nela.
A expressão "teatro de segurança" faz um trabalho preciso. Ela diz: as linhas vermelhas da OpenAI — que o Techdirt apontou como adotando "efetivamente as palavras" que a Anthropic usa — são encenação, não política. A OpenAI alterou seu contrato com o DOD para incluir cláusulas contra vigilância em massa e direcionamento autônomo de armas. O argumento de Amodei é que adotar o vocabulário sem a arquitetura de execução é pior do que não ter vocabulário nenhum, porque cria a ilusão de restrição.
Estamos falando de um CEO cujos investidores pedem que ele recue, e cuja resposta é atacar publicamente o concorrente que fez exatamente o que seus investidores gostariam que ele tivesse feito.
O Padrão
A pressão sobre a Anthropic mudou de fonte a cada semana:
- 30 Jan A Reuters reporta que o Pentágono está em conflito com a Anthropic por salvaguardas que limitam o uso de sua tecnologia para direcionar armas de forma autônoma e realizar vigilância doméstica.
-
24 FEVO Secretário de Defesa Hegseth dá à Anthropic até sexta-feira para fornecer acesso "sem restrições" ao Claude — ou enfrentar a LPD.
- 27 Fev Altman diz que a OpenAI compartilha as "linhas vermelhas" da Anthropic enquanto fecha 110 bilhões a 730 bilhões de avaliação. Amodei declara que a Anthropic "não pode em boa consciência" atender às exigências do DOD.
-
1 MARO Pentágono usa o Claude no ataque aéreo ao Irã — no mesmo dia em que designa a Anthropic como risco à cadeia de suprimentos.
-
4 MAROs próprios investidores da Anthropic pressionam pela desescalada. O memorando vazado de Amodei chama o contrato da OpenAI de "teatro de segurança".
Em cinco semanas, a pressão mudou de endereço. Primeiro o Pentágono. Depois a Casa Branca. Depois o establishment de defesa. Agora os investidores — as mesmas pessoas que financiaram a empresa por seus princípios, pedindo que ela suavize esses princípios por causa do que o governo pode fazer.
A Contradição
A pressão dos investidores carrega uma contradição específica. A aposta de 60 bilhões foi: segurança produz valor comercial. Clientes corporativos escolhem a Anthropic porque é a empresa que pensa em riscos. Os dados da a16z mostraram que 75% dos clientes da Anthropic usam os modelos mais recentes — contra 46% na OpenAI — porque confiam que as atualizações são seguras. Os 14 bilhões de receita anualizada foram construídos sobre essa confiança.
Investidores que pressionam a Anthropic a ceder na segurança para evitar a LPD estão pedindo que ela destrua a coisa que gera os 14 bilhões que justificam o cheque que eles assinaram. A lógica: salvar a empresa do governo mesmo que sobre uma empresa que não vale mais o que custou.
Os investidores compraram segurança como tese. Agora alguns querem vendê-la como concessão.
A resposta de Amodei — escalada, não compromisso — sugere que ele entende algo que seus investidores talvez não tenham calculado. Se a Anthropic ceder nas restrições militares e a ameaça da LPD passar, sobra a empresa. Mas não sobra o que justificava ela. Clientes corporativos escolheram a Anthropic porque era a empresa que segurava a linha. Uma empresa que segura a linha é uma coisa. Uma que segurou até ficar caro é outra.
A Segunda Frente
Enquanto isso, a reunião geral da OpenAI revelou sua própria tensão interna. Altman defendeu o contrato com o DOD, dizendo que a reação foi exagerada e que a empresa não "pode decidir sua própria política externa". Depois disse algo sobre buscar contratos adicionais com o DOD. Depois um porta-voz disse que ele tinha dito algo errado. O CEO de uma empresa avaliada em 730 bilhões de dólares, corrigido pelo próprio time de comunicação no tópico mais sensível do dia.
A correção importa pelo que o memorando vazado de Amodei acusou a OpenAI de fazer: teatro. Se a posição da OpenAI sobre IA militar precisa de um porta-voz para limpar o que o CEO disse, a posição não é tão firme quanto o contrato faz parecer.
Em 4 de março, as duas empresas travavam batalhas em duas frentes. A Anthropic enfrenta o governo e seus próprios investidores. A OpenAI enfrenta seus críticos e as declarações de seu próprio CEO. A diferença: a Anthropic briga para não ceder. A OpenAI briga para saber onde é que está.