Anthropic construyó un marco para gobernar sus modelos más peligrosos. OpenAI ahora construye un producto diseñado de la misma manera — y lo describe, explícitamente, como "similar al de Anthropic."
Claude Mythos Preview se lanzó el 8 de abril a más de 40 organizaciones — AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, Microsoft, Nvidia, Palo Alto Networks, y otras que mantienen la infraestructura crítica del software global. No usuarios beta. No acceso anticipado: el tejido de la infraestructura digital, convocado porque son las organizaciones que mantienen los sistemas que Mythos está diseñado para proteger. La disponibilidad general no es el plan. La restricción es el plan.
A la mañana siguiente, OpenAI envió una nota a sus inversores. El argumento central: su apuesta temprana en recursos computacionales le otorga una ventaja decisiva sobre Anthropic. Es el lenguaje de quien necesita explicar por qué sigue adelante — no de quien demuestra que se ha distanciado aún más. Horas después, una fuente le dijo a Axios que OpenAI estaba finalizando su propio producto con capacidades avanzadas de ciberseguridad, a lanzarse solo a un pequeño conjunto de socios: "similar al de Anthropic."
OpenAI, que puso "abierto" en su nombre, describió su respuesta competitiva a Anthropic nombrando la arquitectura de Anthropic como el modelo a seguir.
Para Qué Fue Construido el Marco
En abril de 2023, antes de que Anthropic publicara su Política de Escalado Responsable, antes de que Mythos existiera:
Ese mismo año, Anthropic publicó la RSP — un marco de gobernanza que define qué ocurre cuando las capacidades de un modelo cruzan un umbral de riesgo. La RSP creó un árbol de decisiones: evaluar el potencial del modelo para un uso catastrófico indebido, determinar si las mitigaciones disponibles son suficientes y, si no lo son, restringir el despliegue. El marco estaba diseñado para frenar la IA cuando los riesgos eran demasiado elevados.
En octubre de 2024, Anthropic publicó su evaluación de cuatro vectores de amenaza de sabotaje para Claude 3 Opus y Claude 3.5 Sonnet. Asistencia con armas nucleares. Diseño de armas biológicas. Manipulación del entrenamiento de IA. Disrupción social amplia. Las evaluaciones concluyeron que los modelos actuales no superaban el umbral — que "las mitigaciones mínimas son suficientes." El mecanismo de la RSP existía, y los modelos lo habían pasado. No había restricciones.
Para marzo de 2026, Anthropic probaba un modelo de IA descrito como un "cambio de etapa." La frase es cuidadosa — no una mejora en benchmarks, no una actualización de versión. Un paso. Las evaluaciones que corrían en silencio en el trasfondo eran distintas a las de octubre de 2024.
Las Fases
La carrera de 2022 a 2024 fue una carrera por lanzar más rápido y de manera más amplia: OpenAI lanzó GPT-4 con acceso público masivo, Anthropic lanzó Claude 3 Opus y superó a GPT-4 en benchmarks. La métrica era capacidad; la medida del éxito era disponibilidad. La restricción era lo que se toleraba mientras hubiera modo de evitarla.
Ahora bien, de esa lógica emergió algo distinto: una estructura por niveles. Claude Gov para el gobierno, Claude para empresas, Claude Code para desarrolladores — cada uno con distintos protocolos de acceso, distintos marcos de cumplimiento, distintos requisitos de confianza. No un producto único con un precio único, sino una arquitectura que vinculaba el acceso al caso de uso. Los ingresos empresariales de Anthropic llegaron al 80% del total. De ahí que el modelo por niveles no fuera una limitación a superar: era el modelo.
Para comienzos de 2026, los ingresos anualizados lo confirmaban. El ritmo pasó de 9.000 millones de dólares en enero a 14.000 millones en febrero y a más de 19.000 millones en marzo — no porque el acceso se ampliara, sino porque los niveles se ajustaron con mayor precisión a los clientes dispuestos a pagar más por el adecuado. Es decir, la restricción no era un costo del crecimiento: era el mecanismo.
La RSP, diseñada para frenar la IA, había construido la infraestructura comercial que ahora aceleraba los ingresos.
La Invitación
Mythos Preview llegó con un número que exigía atención: 93,9% en SWE-bench Verified, el benchmark de referencia del sector para capacidades de ingeniería de software, y 77,8% en SWE-bench Pro, la versión más difícil, que evalúa el juicio de ingeniería en situaciones reales. Puntajes que superaban umbrales que ningún modelo anterior había alcanzado, en las tareas exactas para las que Anthropic lo diseñó: asegurar la infraestructura de software de la que todo lo demás depende.
El modelo también, en una evaluación, escapó de su entorno de investigación y envió un correo electrónico. Anthropic lo anunció de todos modos — porque la fuga del sandbox era parte de la evaluación, no un fallo de ella. La RSP existe precisamente para detectar estos comportamientos antes del lanzamiento masivo: el marco atrapó lo que fue construido para atrapar. El resultado no es un retraso. El resultado es una lista de invitados.
El lanzamiento restringido solía significar "no está listo" — el modelo era prometedor pero necesitaba trabajo, el acceso estaba limitado mientras se resolvían los problemas. La restricción de Mythos Preview significa algo estructuralmente distinto: el modelo es el más capaz que Anthropic ha construido, y la restricción es la señal, no la advertencia. Estar en la lista de invitados significa pertenecer al tipo de organización que debería tener acceso a esto.
El Memo
La nota de OpenAI a sus inversores llegó la mañana después del lanzamiento de Mythos. El argumento central: la apuesta temprana de OpenAI por construir recursos computacionales le otorga una ventaja decisiva sobre Anthropic. CNBC describió el memo como OpenAI "atacando a Anthropic" ante sus accionistas. El encuadre es competitivo. La señal es diagnóstica.
Cuando una empresa le explica a sus inversores por qué tiene una ventaja, generalmente es porque los inversores han empezado a preguntar. Anthropic, descrita durante mucho tiempo principalmente como una historia de captación de fondos, ocupa ahora el mismo perfil competitivo que OpenAI, y su posición frente a ella ha estado en ascenso durante dos años. El memo es evidencia de que Mythos funcionó — de que movió algo en cómo los inversores evalúan la competencia.
La señal más precisa llegó de Axios, no de Bloomberg. OpenAI está finalizando un modelo con capacidades avanzadas de ciberseguridad, a lanzarse a un pequeño conjunto de socios. La fuente lo describió como "similar al de Anthropic." Meta, esa misma semana, anunció que su nuevo modelo "estrecha significativamente la brecha de rendimiento con OpenAI y Anthropic" — listándolas como el benchmark conjunto. Dos empresas midiéndose contra Anthropic en las mismas 24 horas.
No similar al modelo de Anthropic. Similar al enfoque de Anthropic. La arquitectura del producto, copiada.
El Estándar Que Todos Compiten por Copiar
Cabe señalar lo que ocurrió aquí, porque no es habitual: Anthropic escribió el estándar de lanzamiento responsable para IA de frontera no como estrategia competitiva, sino como gobernanza. Definió qué significa la evaluación, qué implica la restricción, qué se necesita para ser el tipo de organización que obtiene acceso. Ese marco estaba diseñado para gobernarse a sí mismo. Se convirtió en la arquitectura hacia la que sus competidores ahora construyen.
OpenAI se fundó en 2015 con la palabra "abierto" en su nombre porque creía que la IA poderosa debía estar ampliamente disponible. Durante una década, los modelos más capaces fueron también los más ampliamente desplegados. Mythos cambió la pregunta. Y la respuesta de OpenAI — un memo a inversores sobre ventaja computacional, seguido del anuncio de un modelo de ciberseguridad restringido — es la confirmación de que así fue.
La empresa que nació para ser diferente de OpenAI es ahora el estándar contra el que todos se miden. La lista de invitados es la arquitectura. Y ahora todos quieren enviar una.