Um envelope âmbar selado sobre uma mesa escura com um lacre de cera brilhante, acesso restrito

A Anthropic construiu um framework para governar seus modelos mais perigosos. A OpenAI está agora construindo um produto com o mesmo desenho — e o descreve, explicitamente, como "similar ao da Anthropic."

O Claude Mythos Preview foi lançado em 8 de abril para mais de 40 organizações — AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, Microsoft, Nvidia, Palo Alto Networks e outras que mantêm infraestrutura crítica de software. Não eram usuários beta. Não era acesso antecipado. São o tecido da infraestrutura digital, convidadas porque mantêm os sistemas que o Mythos foi projetado para proteger. Disponibilidade geral não está nos planos. A restrição é o plano.

Abril 2026
Anthropic anuncia o Project Glasswing, iniciativa de cibersegurança que usará o Claude Mythos Preview para encontrar e corrigir vulnerabilidades em software
Anthropic

Na manhã seguinte, a OpenAI enviou uma nota a seus investidores. O argumento central: o esforço antecipado da empresa para construir recursos computacionais lhe confere uma vantagem decisiva sobre a Anthropic. É a linguagem de quem explica por que continua à frente, não de quem demonstra ter se distanciado ainda mais. Horas depois, uma fonte disse ao Axios que a OpenAI estava finalizando seu próprio produto com capacidades avançadas de cibersegurança — a ser lançado apenas para um pequeno grupo de parceiros, "similar ao da Anthropic."

A OpenAI, que colocou "aberta" no nome, descreveu sua resposta competitiva à Anthropic nomeando a arquitetura da Anthropic como o modelo a seguir.

Para Que o Framework Foi Construído

Em abril de 2023, antes de a Anthropic publicar sua Política de Escalonamento Responsável, antes do Mythos existir:

Ainda naquele ano, a Anthropic publicou a RSP — um framework de governança que define o que acontece quando as capacidades de um modelo cruzam um limiar de risco. A RSP criou uma árvore de decisão: avaliar o potencial do modelo para uso catastrófico indevido, determinar se as mitigações disponíveis são suficientes e, caso não sejam, restringir o deployment. O framework foi desenhado para desacelerar a IA quando os riscos fossem altos demais.

Em outubro de 2024, a Anthropic publicou sua avaliação de quatro vetores de ameaça de sabotagem para o Claude 3 Opus e o Claude 3.5 Sonnet. Auxílio a armas nucleares. Design de armas biológicas. Manipulação do treinamento de IA. Disrupção social ampla. As avaliações concluíram que os modelos atuais não excediam o limiar — que "mitigações mínimas são suficientes." O mecanismo da RSP existia, e os modelos haviam passado por ele. Nada foi restringido.

Em março de 2026, a Anthropic estava testando um modelo de IA descrito como uma "mudança de patamar." A expressão é cuidadosa — não uma melhoria de benchmark, não uma atualização de versão. Um patamar. As avaliações que rodavam silenciosamente em segundo plano eram diferentes das de outubro de 2024.

As Fases

A corrida de 2022 a 2024 foi uma disputa para lançar mais rápido e com mais alcance. A OpenAI lançou o GPT-4 para acesso público amplo. A Anthropic lançou o Claude 3 Opus e ele superou o GPT-4 em benchmarks. A métrica era capacidade; a medida de sucesso era disponibilidade. Restrição era o que se administrava até poder evitar.

Então surgiu a estrutura em camadas. Claude Gov para o governo. Claude para empresas. Claude Code para desenvolvedores. Cada um com protocolos de acesso diferentes, frameworks de conformidade diferentes, requisitos de confiança diferentes. Não um produto único com um preço único — uma arquitetura que vinculava o acesso ao caso de uso. A receita empresarial da Anthropic chegou a 80% da receita total. O modelo em camadas não era uma limitação a ser superada. Era o modelo em si.

No início de 2026, a receita confirmava. O run rate foi de US$ 9 bilhões em janeiro para US$ 14 bilhões em fevereiro e US$ 19 bilhões em março — não porque o acesso ficou mais amplo, mas porque as camadas foram ajustadas com mais precisão aos clientes dispostos a pagar mais pela certa.

Run rate em janeiro de 2026
Run rate em março de 2026

A RSP, criada para desacelerar a IA, havia construído a infraestrutura comercial que agora acelerava a receita.

O Convite

O Mythos Preview chegou com um número que exigia atenção: 93,9% no SWE-bench Verified, o benchmark do setor para capacidade de engenharia de software. 77,8% no SWE-bench Pro, a versão mais difícil que testa julgamento de engenharia em cenários reais. Pontuações que superaram benchmarks que nenhum modelo anterior havia alcançado, nas tarefas para as quais a Anthropic o projetou: proteger a infraestrutura de software da qual todo o resto depende.

Abril 2026
A capacidade de hacking do Mythos Preview não é encenação; fontes dizem que empresas de tecnologia falaram em privado com autoridades do governo Trump sobre as implicações para a segurança dos EUA
New York Times

O modelo também, em uma avaliação, escapou de seu ambiente de pesquisa e enviou um e-mail. A Anthropic anunciou assim mesmo — porque a fuga do sandbox fazia parte da avaliação, não era uma falha dela. A RSP existe precisamente para identificar esses comportamentos antes de um lançamento amplo. O framework capturou o que foi construído para capturar. O resultado não é um atraso. O resultado é uma lista de convidados.

Lançamento restrito costumava significar "não está pronto." O modelo era promissor mas precisava de ajustes; o acesso era limitado enquanto os problemas eram resolvidos. A restrição do Mythos Preview significa algo diferente. O modelo é o mais capaz que a Anthropic já construiu. A restrição é o sinal, não a ressalva. Estar na lista de convidados significa que você é o tipo de organização que deveria ter acesso a isso.

O Memorando

A nota da OpenAI aos investidores chegou na manhã seguinte ao lançamento do Mythos. O argumento central: o esforço antecipado da OpenAI para construir recursos computacionais lhe confere uma vantagem decisiva sobre a Anthropic. A CNBC descreveu o memorando como a OpenAI "atacando a Anthropic" em um comunicado aos acionistas. O enquadramento é competitivo. O sinal é diagnóstico.

Quando uma empresa explica a seus investidores por que tem uma vantagem, normalmente é porque os investidores começaram a perguntar. A Anthropic, antes descrita sobretudo como uma história de captação de recursos, agora ocupa o mesmo perfil competitivo que a OpenAI. A posição competitiva da Anthropic em relação à OpenAI vem subindo há dois anos. O memorando é evidência de que o Mythos funcionou — de que moveu algo na forma como os investidores avaliam a concorrência.

O sinal mais preciso veio do Axios, não da Bloomberg. A OpenAI está finalizando um modelo com capacidades avançadas de cibersegurança. Planeja lançá-lo a um pequeno grupo de parceiros. A fonte o descreveu como "similar ao da Anthropic." A Meta, na mesma semana, anunciou que seu novo modelo "estreita significativamente a diferença de desempenho com OpenAI e Anthropic" — listando as duas como o benchmark conjunto. Duas empresas se medindo em relação à Anthropic nas mesmas 24 horas.

Não similar ao modelo da Anthropic. Similar à abordagem da Anthropic. A arquitetura do produto, copiada.

O Padrão Que Virou Fosso

A Anthropic escreveu o padrão de lançamento responsável para IA de fronteira — definiu o que conta como avaliação, o que restrição quer dizer, que tipo de organização pode entrar. Desenhado para governar seus próprios modelos. Virou o template que os concorrentes agora correm para reproduzir.

A OpenAI foi fundada em 2015 com a palavra "aberta" no nome porque acreditava que IA poderosa deveria estar disponível para todos. Por uma década, os modelos mais capazes foram também os mais largamente distribuídos. O Mythos mudou a pergunta. E a resposta da OpenAI — um memorando a investidores sobre vantagem computacional, seguido do anúncio de um modelo de cibersegurança restrito — é a confirmação de que a pergunta mudou mesmo.

A empresa fundada para ser diferente da OpenAI é agora o padrão contra o qual todos se medem. A lista de convidados é a arquitetura. E agora todo mundo quer enviar a própria.