Em 12 de fevereiro, o Platformer noticiou que a OpenAI havia dissolvido seu time de alinhamento de missão nas semanas anteriores, redistribuindo seus funcionários e dando ao líder da equipe, Joshua Achiam, um novo título: "futurista-chefe". É a segunda vez em dois anos que a OpenAI dissolve uma equipe interna dedicada a garantir que seus sistemas de IA sejam seguros. Na primeira vez, em maio de 2024, foi uma crise. Desta vez, foi uma nota de rodapé.
Maio de 2024
Em julho de 2023, a OpenAI criou o Superalignment — um time co-liderado pelo cientista-chefe Ilya Sutskever, dedicado a desenvolver formas de "dirigir e controlar" sistemas de IA superinteligentes. A empresa prometeu 20% de sua capacidade computacional. Era o compromisso mais visível da OpenAI com a ideia de que a tecnologia que estava construindo poderia ser perigosa — e que esse perigo exigia recursos dedicados para ser enfrentado.
Dez meses depois, o time havia desaparecido. Em abril de 2024, dois pesquisadores de segurança foram demitidos por suposto vazamento de informações, entre eles Leopold Aschenbrenner, aliado de Sutskever. Em maio, o próprio Sutskever saiu. Depois, o co-líder Jan Leike pediu demissão e publicou um thread que se tornou a crítica interna mais citada de qualquer laboratório de IA: "A cultura de segurança e os processos foram postos em segundo plano em favor de produtos reluzentes." Até o dia 19 de maio, a Wired reportava que toda a equipe do Superalignment tinha renunciado ou sido absorvida. Em julho, a chefe do time de Preparedness da OpenAI foi remanejada para pesquisa em raciocínio.
A reação foi sísmica. O thread de Leike foi citado na imprensa por semanas. Pesquisadores de toda a comunidade de segurança em IA chamaram o acontecimento de traição. Ele alimentou diretamente a narrativa mais ampla de que a OpenAI havia abandonado sua missão fundadora em favor da aceleração comercial. Gabinetes do Congresso americano o citaram. A União Europeia o referenciou. Importou.
Fevereiro de 2026
A OpenAI criou um substituto: alinhamento de missão, liderado por Joshua Achiam, com o mesmo mandato e menos alarde. Em algum momento das últimas semanas, esse time também foi dissolvido. Os funcionários foram redistribuídos. Achiam ganhou um novo título.
Futurista-chefe. Não uma demissão. Não um thread devastador. Não uma crise. Uma mudança de título. A pessoa cujo trabalho era garantir que os modelos de IA se alinhassem com os valores humanos aceitou um novo cargo — que soa como o palestrante principal de um retiro corporativo. O time desapareceu sem protesto. A história saiu em um boletim informativo, não na capa da Wired.
A OpenAI fez a mesma coisa duas vezes. Formou um time de segurança, divulgou sua existência, dissolveu-o. O padrão é idêntico. O que mudou entre 2024 e 2026 foi tudo ao redor do padrão.
O Que Mudou
Três coisas aconteceram no mesmo dia da dissolução do time de alinhamento de missão e explicam por que ninguém piscou.
Primeiro: a Reuters noticiou que o Pentágono está pressionando a OpenAI, a Anthropic e outras empresas para disponibilizar suas ferramentas de IA em redes classificadas — "sem as restrições padrão de usuário". Os militares não querem barreiras de segurança. Querem capacidade. A demanda é o desfecho de um arco de dois anos: a OpenAI removeu silenciosamente sua proibição de uso militar em janeiro de 2024, fez parceria com a Anduril para IA de defesa em dezembro de 2024, fechou acordo com a Leidos para agências federais em janeiro de 2026 e concedeu acesso ao ChatGPT para os militares americanos nesta semana. De "nenhum uso militar" a "redes classificadas sem restrições" em vinte e cinco meses. Quando o Pentágono é seu cliente, uma equipe interna de segurança não é um ativo. É atrito.
Segundo: a Anthropic doou US$ 20 milhões para a Public First, um super PAC que defende salvaguardas e transparência em IA — explicitamente posicionado contra os super PACs apoiados pela OpenAI. O adversário: Leading the Future, um super PAC pró-IA lançado pela a16z e pelo Greg Brockman, da OpenAI, em agosto de 2025, que já arrecadou US$ 125 milhões para influenciar as eleições de meio de mandato e impedir regulamentações restritivas de IA.
A questão do alinhamento agora é uma disputa de financiamento de campanha. Duas empresas de IA financiam super PACs opostos. A pergunta "como tornamos a IA segura?" não é mais respondida por equipes de pesquisa. É respondida por estrategistas políticos, compras de mídia e despesas eleitorais. Nesse ambiente, uma equipe interna de segurança em uma empresa é irrelevante — a batalha migrou para um terreno onde o número de funcionários não conta e os dólares, sim.
Terceiro: a Bloomberg reportou que algumas das maiores empresas de venture capital estão agora investindo simultaneamente em OpenAI e Anthropic — "rompendo um tabu ao investir em startups concorrentes". As firmas não estão apenas fazendo hedge sobre produtos. Estão fazendo hedge sobre filosofias. Se a IA sem restrições vencer — contratos com o Pentágono, sem barreiras, velocidade máxima — a OpenAI é a aposta certa. Se a regulamentação vencer — padrões obrigatórios, exigências de transparência — a Anthropic é a aposta certa. Ao financiar as duas, os VCs garantem retorno independentemente de qual regime prevaleça.
A Normalização
Em 2024, quando Jan Leike escreveu "a segurança ficou em segundo plano em relação a produtos reluzentes", era uma acusação. Carregava o peso de quem acreditou que a empresa poderia ser diferente e estava de luto por descobrir que não seria. Seu thread era a linguagem da traição — específico, pessoal, raivoso.
Em 2026, o líder do time de alinhamento de missão aceitou uma mudança de título. Sem carta pública. Sem thread devastador. Sem luto. A segunda dissolução não gerou dissidência porque não havia mais nenhuma expectativa a ser violada. A primeira dissolução foi uma promessa quebrada. A segunda foi uma previsão cumprida.
É assim que a normalização se parece na prática. A mesma ação — dissolver um time de segurança em IA — produz reações completamente diferentes dependendo de se alguém ainda espera que a empresa o mantenha. A OpenAI ensinou ao mercado, à imprensa e aos seus próprios funcionários que times de segurança são estruturas temporárias, criadas quando a pressão pública as exige e dissolvidas quando as prioridades comerciais as superam. A lição foi assimilada de forma tão completa que a segunda dissolução mal foi percebida.
E o ambiente agora reforça essa lição a partir de todas as direções. O Pentágono exige modelos sem restrições. Super PACs gastam US$ 145 milhões brigando por regulamentações que ainda não foram escritas. Os VCs financiam os dois lados. A questão da segurança foi decomposta — dividida entre oficiais de compras militares, estrategistas de campanha e gestores de ativos — e ninguém sozinho tem parte suficiente para recompor o todo.
Em algum lugar no organograma da OpenAI, um homem com o título de "futurista-chefe" ainda pensa em alinhamento. Seu time sumiu. O orçamento sumiu. O mandato agora é um título. Mas o título é perfeito, à sua maneira. O futuro é exatamente o que ele recebeu permissão de contemplar — desde que não tente mudá-lo.