Uma balança com princípios de um lado e 180 bilhões de dólares do outro, perfeitamente equilibrada

Em 13 de fevereiro, a Anthropic captou 30 bilhões de dólares numa rodada Série G liderada por GIC e Coatue, com avaliação de 380 bilhões. No mesmo dia, a Anthropic divulgou que sua receita anualizada havia chegado a 14 bilhões, crescendo mais de 10 vezes ao ano. No mesmo dia, o Departamento de Defesa publicou e depois deletou um documento que incluía a Anthropic numa lista de empresas consideradas ameaça à segurança nacional dos Estados Unidos. No mesmo dia, Dario Amodei disse a Dwarkesh Patel que a humanidade está a poucos anos de construir "um país de gênios num datacenter". No mesmo dia, a Anthropic doou 20 milhões de dólares ao Public First, um super PAC que pressiona por salvaguardas para a IA em Washington.

Cinco histórias. Um dia. Uma empresa. E cada história puxa numa direção diferente.

A Semana que se Seguiu

O documento do DoD foi deletado em questão de horas, mas o sinal era claro. Dois dias depois, em 15 de fevereiro, a Axios noticiou que o Pentágono estava considerando romper sua relação com a Anthropic pela insistência da empresa em manter suas salvaguardas de segurança — especificamente sua recusa em construir sistemas de vigilância em massa ou armas de direcionamento totalmente autônomas. Até 16 de fevereiro, um alto funcionário disse que o secretário de Defesa Pete Hegseth estava "perto" de designar a Anthropic uma "preocupação de segurança", o que cortaria seu acesso a contratos militares por completo.

A resposta da empresa foi continuar lançando produtos. Em 17 de fevereiro, a Anthropic lançou o Claude Sonnet 4.6 com uma janela de contexto de um milhão de tokens. Abriu um escritório em Bangalore, o segundo na Ásia. Fechou parceria com a Figma no Code to Canvas. Assinou com a Infosys como parceira empresarial.

E então, em 18 de fevereiro, o The Information revelou o número que coloca tudo em perspectiva.

Custos previstos de nuvem e treinamento da Anthropic até 2029: mais de 80 bilhões para Amazon, Google e Microsoft em inferência, mais até 100 bilhões para treinamento de modelos.

A Aritmética do Princípio

A Anthropic está avaliada em 380 bilhões e acabou de se comprometer a gastar 180 bilhões que ainda não tem — mais de 12 vezes sua receita anual — só em infraestrutura. Captou 30 bilhões para financiar isso. Mas 30 bilhões é uma entrada num total de 180 bilhões, não uma solução.

Receita anualizada atual (crescimento anual de 10x)
Custos comprometidos de nuvem e treinamento até 2029

Para fechar essa conta, a receita precisa crescer mais umas 4 vezes além da trajetória atual — só para cobrir infraestrutura. Antes dos salários. Antes da pesquisa. Antes dos 20 milhões doados ao super PAC.

É aqui que a história do Pentágono deixa de ser uma nota de rodapé política. O exército americano é um dos maiores clientes potenciais para sistemas de IA. A Anthropic acabou de dizer ao Pentágono que não vai construir os produtos que ele quer comprar. Não é um impacto hipotético na receita. É real, escolhido deliberadamente, por uma empresa que precisa de cada dólar de receita que puder encontrar.

O que o Pentágono Não Viu

O documento do DoD — publicado e depois deletado em 13 de fevereiro — teria incluído a Anthropic numa lista de empresas com possíveis vínculos com o exército chinês. A acusação parece derivar dos investidores da Anthropic, não de suas operações. O GIC, que liderou a rodada de 30 bilhões, é o fundo soberano de Singapura. A resposta do Pentágono a uma empresa americana de IA focada em segurança que recebe capital de Singapura foi classificá-la brevemente ao lado de ameaças reais à segurança nacional.

A deleção sugere que alguém percebeu o absurdo. Mas a sequência é reveladora. A frustração do Pentágono com a Anthropic não é, no fundo, sobre a China. É sobre controle. Os militares querem empresas de IA que construam o que os militares pedem. A Anthropic disse não. A lista militar chinesa foi uma tática de pressão. A ameaça de designação como "preocupação de segurança" foi outra.

A Nomeação de Liddell

Enterrada nas notícias do mesmo dia: a Anthropic adicionou Chris Liddell ao seu conselho. Liddell é um ex-executivo da Microsoft e da GM que atuou na Casa Branca de Trump. A nomeação foi noticiada pelo Wall Street Journal junto com a captação, quase como um detalhe secundário.

Não era um detalhe secundário. Uma empresa não adiciona um ex-integrante do governo Trump ao seu conselho na mesma semana em que o Pentágono ameaça designá-la uma preocupação de segurança por acidente. A doação de 20 milhões ao super PAC, a nomeação para o conselho, os lançamentos simultâneos de produtos — são os movimentos de uma empresa que sabe que o princípio que defende tem um preço, e está tentando pagá-lo em todas as moedas exceto a que o Pentágono exige.

A Dependência

O número de 180 bilhões revela a tensão mais profunda. Os custos de nuvem da Anthropic fluem para a Amazon, o Google e a Microsoft — as mesmas empresas que competem com ela. A Amazon é o principal provedor de nuvem da Anthropic. O Google é o segundo. A Microsoft tornou-se recentemente um de seus principais clientes. A Anthropic é simultaneamente cliente, concorrente e dependente das três maiores empresas de tecnologia do planeta.

Quando Dario Amodei fala a Dwarkesh Patel sobre "um país de gênios num datacenter", o datacenter pertence a outra pessoa. Os gênios rodam em computação alugada. O país paga aluguel a três proprietários que também administram países concorrentes.

A empresa de IA mais comprometida com seus princípios é também a mais dependente. Isso não é uma contradição. É o custo do princípio.

A Aposta

A aposta é esta: que o crescimento de receita — hoje 10 vezes ao ano — vai superar os 180 bilhões em compromissos antes que eles vençam. Que a pressão do Pentágono cede por canais políticos — daí o super PAC, daí a nomeação para o conselho. Que a Amazon, o Google e a Microsoft continuam fornecendo infraestrutura a um concorrente porque o dinheiro que a Anthropic gasta em nuvem supera a ameaça que seus produtos representam.

Para tudo isso funcionar, o produto precisa ser indispensável. Não bom. Indispensável.

Em 13 de fevereiro, uma empresa contou cinco histórias diferentes sobre si mesma. Uma startup de 380 bilhões. Uma ameaça à segurança nacional. Uma pioneira da segurança em IA. Um operador político. Uma dependente de seus próprios concorrentes. As cinco histórias não são contradições. São o custo de tentar construir a tecnologia mais poderosa da história enquanto se recusa a deixar qualquer outro decidir como ela será usada.

O princípio custa 180 bilhões. A Anthropic está tentando ganhá-los.