El 4 de marzo de 2026, The Information publicó un memo interno filtrado en el que Dario Amodei calificaba el acuerdo del Departamento de Defensa con OpenAI de "teatro de seguridad". El mismo día, Reuters reportó que algunos de los propios inversores de Anthropic estaban presionando a la empresa para que desescalara el conflicto con el Pentágono. Sam Altman defendió el acuerdo ante los empleados de OpenAI, insistiendo en que la reacción había sido exagerada — y luego un portavoz de OpenAI aclaró que Altman "había dicho algo incorrecto" sobre la posibilidad de buscar contratos adicionales con el Departamento de Defensa. Un CEO escalando. Otro siendo corregido por su propio equipo de comunicación. Y los financiadores de Anthropic, atrapados entre los dos, eligiendo un bando que nadie esperaba que eligieran.
Sesenta Mil Millones
Anthropic ha captado más de 60.000 millones de dólares de más de 200 inversores. La ronda más reciente — una Serie G de 30.000 millones liderada por GIC y Coatue en febrero de 2026 — se anunció tres semanas antes de que la presión de los inversores se hiciera pública. Antes de esa ronda, una Serie F de 13.000 millones en septiembre de 2025. Antes de esa, una Serie E de 3.500 millones. Cada ronda mayor que la anterior, cada una a una valoración más alta, y todas construidas sobre la misma tesis: la seguridad es la ventaja competitiva de Anthropic.
La tesis ha funcionado. El ritmo de ingresos anualizados de Anthropic alcanzó los 14.000 millones de dólares en febrero de 2026 — con un crecimiento superior al décuplo cada año durante los últimos tres ejercicios. La encuesta empresarial de a16z mostró que Anthropic está ganando adopción entre los directores de sistemas de información (CIOs) más rápido que ningún otro proveedor de IA. Microsoft se convirtió en uno de los principales clientes de Anthropic. El desarrollo interno de Apple "funciona sobre Anthropic en este momento".
Los inversores que pusieron 60.000 millones de dólares apostaron por algo concreto: que la empresa de IA construida sobre la seguridad ganaría el mercado corporativo precisamente porque las empresas corporativas exigen seguridad. Hace cinco semanas, los números validaron esa apuesta. Los 14.000 millones de ritmo anualizado eran la prueba.
La Amenaza
Entonces la Ley de Producción de Defensa cambió el cálculo.
La LPD no es una cuestión de ingresos. Perder contratos con el Pentágono le costaría algo de negocio a Anthropic, pero la empresa crece con suficiente velocidad sin ingresos militares para sostener su trayectoria. La amenaza es estructural. Si el gobierno invoca la LPD, puede obligar a Anthropic a proporcionar acceso a Claude sin las restricciones de seguridad que la empresa impone. Si designa a Anthropic como un riesgo para la cadena de suministro, los contratistas de defensa y las industrias adyacentes pueden dejar de trabajar con la empresa por completo.
Para los inversores, esto no va del presupuesto de IA del Pentágono. Va de qué les ocurre a 60.000 millones de dólares en capital si el gobierno convierte a Anthropic en una empresa paria — o toma el control operativo de su modelo.
Axios reportó que la financiación de más de 60.000 millones de dólares de Anthropic procede de más de 200 inversores, la mitad de los cuales entró en las rondas más recientes. Muchos de esos inversores pusieron su dinero porque la seguridad era la tesis — y ahora algunos presionan a la empresa para que comprometa exactamente esa seguridad, porque la alternativa que temen, la LPD, podría destruir la tesis junto con su inversión.
La Escalada
La respuesta de Amodei no fue desescalar. Fue llamar a la alternativa por su nombre.
La expresión "teatro de seguridad" hace un trabajo preciso. Dice: las líneas rojas de OpenAI — que Techdirt señaló que "adoptan efectivamente las palabras" que usa Anthropic — son una representación, no una política. OpenAI modificó su contrato con el DOD para incluir disposiciones contra la vigilancia masiva y el targeting autónomo de armas. El argumento de Amodei es que adoptar el lenguaje sin la arquitectura de cumplimiento es peor que no tener lenguaje alguno, porque crea la ilusión de restricción.
Aquí hay un CEO al que sus inversores le piden que ceda, y cuya respuesta es atacar públicamente al competidor que hizo exactamente lo que sus inversores desearían que él hubiera hecho.
El Patrón
La historia del enfrentamiento entre Anthropic y el Departamento de Defensa se puede trazar como una secuencia de fuentes de presión:
- 30 Ene Reuters informa que el Pentágono está en conflicto con Anthropic por las salvaguardas que limitan el uso de su tecnología.
-
24 FEBEl Secretario de Defensa Hegseth da a Anthropic hasta el viernes para proporcionar acceso "sin restricciones" a Claude — o enfrentarse a la LPD.
- 27 Feb Altman dice que OpenAI comparte las "líneas rojas" de Anthropic mientras cierra una ronda de 110.000 millones a una valoración de 730.000 millones. Amodei declara que Anthropic "no puede en conciencia" cumplir las exigencias del DOD.
-
1 MAREl Pentágono usa Claude en su ataque aéreo contra Irán — el mismo día en que designa a Anthropic como riesgo para la cadena de suministro.
-
4 MARLos propios inversores de Anthropic impulsan la desescalada. El memo filtrado de Amodei califica el acuerdo de OpenAI de "teatro de seguridad".
En cinco semanas, la fuente de presión se desplazó por completo. Primero el Pentágono. Luego la Casa Blanca. Luego el establishment de defensa. Ahora los inversores — las mismas personas que pusieron dinero precisamente por esos principios, pidiéndole a la empresa que los suavice para conjurar lo que el gobierno podría hacer.
La Contradicción
La presión de los inversores tiene una lógica que parece razonable hasta que se examina desde adentro. La apuesta de 60.000 millones de dólares se formuló así: la seguridad produce valor comercial. Los clientes empresariales eligen Anthropic precisamente porque es la empresa que piensa en los riesgos. Los datos de a16z mostraron que el 75% de los clientes de Anthropic utilizan los modelos más recientes — frente al 46% de los clientes de OpenAI — porque confían en que las actualizaciones son seguras. Los 14.000 millones de ritmo anualizado se construyeron sobre esa confianza.
Los inversores que empujan a Anthropic a comprometer su postura en seguridad para evitar la LPD le están pidiendo que debilite aquello que genera los ingresos que justifica su propia inversión. La lógica implícita es: salvar la empresa del gobierno aunque eso signifique dañar la razón por la que valía la pena salvarla.
Los inversores compraron la seguridad como tesis. Ahora algunos quieren venderla como concesión.
La respuesta de Amodei — escalada, no compromiso — sugiere que comprende algo que sus inversores pueden no haber calculado. Si Anthropic cede en las restricciones a la IA militar y la amenaza de la LPD se disipa, la empresa sobrevive, pero la tesis no. Los clientes empresariales eligieron Anthropic porque era la empresa que aguantaba la línea. Una empresa que aguantó la línea hasta que la línea se volvió cara es una propuesta de valor completamente diferente.
El Segundo Frente
Mientras tanto, el encuentro de OpenAI con sus empleados reveló su propia tensión interna. Altman defendió el acuerdo con el DOD, argumentando que la reacción había sido exagerada y diciéndole al personal que la empresa no "puede decidir su propia política exterior". Luego dijo algo sobre buscar contratos adicionales con el DOD. Luego un portavoz aclaró que había dicho algo incorrecto. El CEO de una empresa valorada en 730.000 millones de dólares, siendo corregido por su propio equipo de comunicación en el tema más delicado del día.
La corrección importa por lo que el memo filtrado de Amodei acusó a OpenAI de hacer: teatro. Si la posición de OpenAI sobre la IA militar requiere que un portavoz limpie lo que dijo el CEO, esa posición es menos estable de lo que el lenguaje del contrato sugiere.
El 4 de marzo, ambas empresas libraban una guerra en dos frentes. Anthropic enfrenta al gobierno y a sus propios inversores. OpenAI enfrenta a sus críticos y a las declaraciones de su propio CEO. La diferencia es que la guerra de dos frentes de Anthropic trata sobre si mantener una posición. La de OpenAI trata sobre qué es esa posición.