Una oficina de esquina vacía con una placa que dice DIRECTOR DE FUTUROS, escritorio despejado, la alineación abandona el laboratorio

El 12 de febrero, Platformer informó que OpenAI había disuelto su equipo de alineación de misión en las semanas previas, transfiriendo a sus empleados y otorgando al líder del equipo Joshua Achiam un nuevo título: "director de futuros". Es la segunda vez en dos años que OpenAI disuelve un equipo interno dedicado a garantizar que sus sistemas de IA sean seguros. La primera vez, en mayo de 2024, fue una crisis. Esta vez, fue una nota al pie.

Mayo de 2024

En julio de 2023, OpenAI creó Superalignment — un equipo coliderado por el científico jefe Ilya Sutskever, dedicado a desarrollar formas de "dirigir y controlar" sistemas de IA superinteligentes. La empresa comprometió el 20% de su capacidad de cómputo. Fue el compromiso más visible de OpenAI con la idea de que la tecnología que estaba construyendo podría ser peligrosa, y que ese peligro requería recursos dedicados para abordarlo.

Diez meses después, el equipo había desaparecido. En abril de 2024, dos investigadores de seguridad fueron despedidos por supuestamente filtrar información, entre ellos Leopold Aschenbrenner, aliado de Sutskever. En mayo, el propio Sutskever se fue. Luego, el colíder Jan Leike renunció y publicó un hilo que se convirtió en la crítica interna más citada de cualquier laboratorio de IA: "La cultura de seguridad y los procesos han quedado en un segundo plano frente a productos relucientes." Para el 19 de mayo, Wired reportaba que todo el equipo de Superalignment había renunciado o sido absorbido. En julio, la jefa del equipo de Preparedness de OpenAI fue reasignada a investigación en razonamiento.

La reacción fue sísmica. El hilo de Leike fue citado en medios de comunicación durante semanas. Investigadores de toda la comunidad de seguridad en IA lo calificaron de traición. Alimentó directamente el relato más amplio de que OpenAI había abandonado su misión fundacional en favor de la aceleración comercial. Oficinas del Congreso lo citaron. La UE lo referenció. Importó.

Febrero de 2026

OpenAI creó un reemplazo: alineación de misión, liderado por Joshua Achiam, con el mismo mandato pero sin la fanfarria — y ese equipo, en algún momento de las últimas semanas, fue disuelto a su vez, sus empleados transferidos, su líder reconvertido en algo llamado director de futuros.

Febrero 2026
Fuente: OpenAI disolvió su equipo de alineación de misión en semanas recientes y transfirió a sus empleados; el líder del equipo Joshua Achiam asumirá el rol de "director de futuros"
Platformer

Director de futuros. No una renuncia. No un hilo devastador. No una crisis. Un cambio de título. El responsable de garantizar que los modelos de IA se alinearan con los valores humanos recibió un cargo nuevo — uno que suena al ponente estelar de un retiro corporativo — y lo aceptó sin publicar ninguna carta. El equipo desapareció sin protesta. La historia apareció en un boletín, no en la portada de Wired.

El patrón es idéntico en sus dos iteraciones: formar un equipo de seguridad, publicitarlo, disolverlo. Lo que no se repite — lo que hace que la segunda vuelta suene diferente a la primera — es todo lo que rodea al patrón.

Lo que Cambió

Tres cosas ocurrieron el mismo día que la disolución del equipo de alineación de misión, y explican por qué nadie parpadeó.

Primera: Reuters informó que el Pentágono está presionando a OpenAI, Anthropic y otras empresas para que pongan sus herramientas de IA a disposición en redes clasificadas — "sin las restricciones estándar de usuario". El ejército no quiere barreras de seguridad. Quiere capacidad. La demanda sigue un arco de dos años: OpenAI eliminó discretamente su prohibición de uso militar en enero de 2024, se asoció con Anduril para IA de defensa en diciembre de 2024, se alió con Leidos para agencias federales en enero de 2026, y dio acceso a ChatGPT al ejército estadounidense esta semana. De "ningún uso militar" a "redes clasificadas sin restricciones" en veinticinco meses. Cuando el Pentágono es tu cliente, un equipo interno de seguridad no es un activo. Es fricción.

Segunda: Anthropic donó 20 millones de dólares a Public First, un súper PAC que impulsa controles y transparencia en IA — explícitamente posicionado contra los súper PACs respaldados por OpenAI. El adversario: Leading the Future, un súper PAC pro-IA lanzado por a16z y Greg Brockman de OpenAI en agosto de 2025, que ha recaudado 125 millones de dólares para influir en las elecciones de mitad de período y prevenir regulaciones restrictivas de IA.

recaudados por el PAC alineado con OpenAI
el contra-PAC de Anthropic

La pregunta sobre la alineación es ahora una disputa de financiamiento de campañas: dos empresas de IA costean súper PACs opuestos, y la pregunta "¿cómo hacemos la IA segura?" ya no la responden equipos de investigación sino estrategas políticos, compras de publicidad y gastos electorales de mitad de período. De ahí que un equipo interno de seguridad en una empresa resulte, en ese entorno, estructuralmente irrelevante — la pelea se trasladó a un terreno donde el número de empleados no importa, pero los dólares sí.

Tercera: Bloomberg informó que algunas de las mayores firmas de capital de riesgo están respaldando simultáneamente a OpenAI y Anthropic — "rompiendo un tabú al invertir en startups rivales". Ahora bien, las firmas no solo cubren apuestas sobre productos: cubren apuestas sobre filosofías. Si la IA sin restricciones gana — contratos del Pentágono, sin barreras de seguridad, máxima velocidad — OpenAI es la apuesta. Si gana la regulación — estándares obligatorios, requisitos de transparencia — Anthropic es la apuesta. Al financiar ambas, los VCs se garantizan retornos con independencia del régimen que prevalezca.

La Normalización

En 2024, cuando Jan Leike escribió "la seguridad ha quedado en un segundo plano frente a productos relucientes", era una acusación. Tenía la fuerza de quien creyó que la empresa podía ser diferente y estaba lamentando descubrir que no lo sería. Su hilo era el lenguaje de la traición — específico, personal, rabioso.

En 2026, el líder del equipo de alineación de misión aceptó un cambio de título. Sin carta pública. Sin hilo devastador. Sin duelo. La segunda disolución no produjo disidencia porque ya no quedaba ninguna expectativa que violar. La primera disolución fue una promesa rota. La segunda fue una predicción cumplida.

De ahí que la segunda disolución apenas se registrara. La misma acción — disolver un equipo interno de seguridad en IA — produce respuestas completamente distintas según si alguien todavía espera que la empresa lo sostenga; y OpenAI le ha enseñado al mercado, a la prensa y a sus propios empleados que esos equipos son estructuras temporales, creadas cuando la presión pública las exige y disueltas cuando las prioridades comerciales las desplazan. La lección fue absorbida con tal profundidad que la segunda vuelta no necesitó ni una coma de indignación para pasar.

El entorno ahora refuerza esa lección desde todas las direcciones a la vez. El Pentágono exige modelos sin restricciones. Los PACs gastan ciento cuarenta y cinco millones de dólares peleando por regulaciones que aún no se han escrito. Los VCs financian ambos lados del debate filosófico. La pregunta sobre la seguridad se ha descompuesto — repartida entre oficiales de adquisición militar, estrategas de campaña y gestores de activos — y ningún actor por separado retiene suficiente de ella como para reensamblar el conjunto. Es decir: la pregunta sigue existiendo, pero ya no tiene dueño.

En algún lugar del organigrama de OpenAI, un hombre con el título de "director de futuros" sigue pensando en la alineación. Su equipo desapareció. El presupuesto desapareció. El mandato ahora es un título. Pero el título es perfecto, a su manera. El futuro es exactamente lo que le han dado permiso de contemplar — siempre que no intente cambiarlo.