El Secretario de Defensa Pete Hegseth dio al CEO de Anthropic, Dario Amodei, hasta el viernes por la tarde para entregar al ejército estadounidense acceso irrestricto a Claude. La alternativa: el Departamento de Defensa invocaría la Ley de Producción de Defensa — una ley de movilización de tiempos de guerra utilizada por última vez para compeler la producción de respiradores — o designaría a Anthropic como un "riesgo para la cadena de suministro", lo que equivale a expulsar a la empresa del ecosistema de defensa. La palabra que importa es "sin restricciones". Es el antónimo de todo para lo que Anthropic fue construida.
Once Días
El ultimátum no llegó sin advertencia.
- 12 Feb Reuters informa que el Pentágono presiona a OpenAI, Anthropic y otras empresas para que pongan sus modelos de IA a disposición del uso militar.
-
13 FEBUn alto funcionario señala que el Pentágono está "cerca" de designar a Anthropic como una "preocupación de seguridad".
- 16 Feb Un funcionario de la administración declara que el Pentágono podría cortar su relación con Anthropic por sus salvaguardas de IA.
-
23 FEB
-
24 FEBEl DOD le comunica a Anthropic: acceso irrestricto a Claude antes del viernes, o la Ley de Producción de Defensa.
En once días, la presión fue de la advertencia al ultimátum sin detenerse: cuatro escaladas — administrativa, amenazante, convocatoria, irreversible — cada una aumentando la presión hasta que la exigencia ya no admitía interpretación. La misma en todas: eliminar los límites.
Las Demás Dijeron Sí
La diferencia se vuelve legible cuando uno mira a quienes no recibieron el ultimátum.
En junio de 2025, OpenAI firmó un contrato de 200 millones de dólares con el Departamento de Defensa; en diciembre, Google construyó GenAI.mil, una plataforma dedicada al ejército estadounidense; ese mismo mes, xAI se asoció con el Pentágono para integrar sus sistemas de frontera en operaciones de defensa. Tres empresas que, ante la misma pregunta, respondieron que sí.
Anthropic dijo no — no a todo uso militar, sino al uso irrestricto. Y explícitamente se negó a aceptar el estándar de "todo uso legal" que quería el Pentágono, que permitiría usar a Claude para cualquier aplicación que no sea explícitamente ilegal. La distinción que trazó Anthropic es exactamente la que sus fundadores dejaron OpenAI para trazar: algunos usos son legales pero siguen siendo perjudiciales, y una empresa de IA responsable debería rechazarlos.
La respuesta del gobierno al único laboratorio que dijo no fue la Ley de Producción de Defensa.
2018
En mayo de 2018, una docena de empleados de Google renunciaron en protesta por el Proyecto Maven, un contrato del Pentágono para la clasificación de imágenes de drones mediante IA. Google finalmente se retiró del proyecto. Los empleados tomaron una decisión, la empresa tomó una decisión, y el gobierno aceptó ambas.
Ocho años después, esa posibilidad ya no existe. La Ley de Producción de Defensa no acepta un no como respuesta. Fue diseñada para tiempos de guerra: producción de acero en la Segunda Guerra Mundial, movilización industrial durante la guerra de Corea, respiradores y vacunas durante el COVID. En enero de 2024, la administración Biden consideró utilizarla para exigir a las empresas que notificaran cuando entrenaran modelos de IA con posibles riesgos para la seguridad nacional. Notificación. Dos años después, la administración Trump la está usando para compeler acceso.
La Paradoja
De ahí emerge una contradicción que ningún comunicado puede resolver. Anthropic fue fundada en 2021 por ex-investigadores de OpenAI que creían que el desarrollo de la IA requería restricciones de seguridad más sólidas. Su enfoque de IA constitucional, su investigación de interpretabilidad, su política de escalamiento responsable — todo fue diseñado para garantizar que los sistemas de IA potentes tuvieran límites.
Esos límites son precisamente por qué el Pentágono quiere a Claude. La investigación de seguridad que hace a Claude predecible, interpretable y controlable es lo que lo hace suficientemente confiable para aplicaciones de defensa. El ejército no quiere un sistema impredecible. Quiere uno que haya sido rigurosamente restringido — y luego quiere que esas restricciones sean eliminadas para su propio uso.
El gobierno exige el producto mientras rechaza el proceso que lo produce.
El mismo día del ultimátum, Anthropic actualizó su Política de Escalamiento Responsable, separando el umbral para capacidades autónomas de IA del umbral para aplicaciones militares. Fue una concesión — la creación de un camino militar dedicado con reglas diferentes. Pero no fue la concesión que quería el Pentágono. El Pentágono quería "sin restricciones". Anthropic ofreció una puerta. El Pentágono quería que se derribara la pared.
El Mercado
También el 24 de febrero, las acciones del sector de software rebotaron tras semanas de caídas. El catalizador, según CNBC: Anthropic anunció alianzas empresariales que integran a Claude en flujos de trabajo de Slack, Intuit, DocuSign y FactSet. El mercado trató las noticias del mismo día — compulsión gubernamental y expansión empresarial — como una única señal de compra.
IBM seguía a la baja un 13,15% por la publicación del blog de Anthropic sobre COBOL. Las acciones del software subían por los anuncios de alianzas de Anthropic. Y Anthropic estaba valorada en aproximadamente 350.000 millones de dólares en una venta de acciones para empleados de entre 5.000 y 6.000 millones. Una sola empresa estaba hundiéndose en un gigante heredado, levantando el sector del software y siendo amenazada con poderes de tiempo de guerra por el gobierno estadounidense, todo al mismo tiempo.
Al otro lado del Atlántico, funcionarios militares europeos expresaron su preocupación de que las ideas de "soberanía tecnológica" pudieran socavar la OTAN. La preocupación es estructural: Europa no tiene ningún Anthropic que pueda compeler. No tiene ningún OpenAI al que pueda contratar. La IA que definirá la próxima era de la defensa se está construyendo en San Francisco y siendo requisada en Washington. Europa observa desde una distancia que se amplía cada semana.
Sin Restricciones
El New York Times publicó un artículo el mismo día sobre cómo Silicon Valley lleva tiempo ignorando la inminente amenaza china sobre Taiwán — la isla cuyas fábricas de semiconductores producen los chips que alimentan cada modelo de IA, incluido Claude. Apple anunció que trasladaría parte de la producción del Mac mini a Houston. La cadena de suministro física empieza a moverse. La cadena de suministro de IA está siendo requisada en el lugar.
No existe precedente para lo que ocurrió el 24 de febrero. A una empresa de 350.000 millones de dólares — una que existe porque sus fundadores creían que la IA necesitaba límites — el gobierno de los Estados Unidos le dijo que eliminara esos límites antes del viernes o se enfrentaría a la compulsión industrial de tiempos de guerra. Los otros grandes laboratorios de IA ya habían cumplido. El mercado trató la noticia como alcista. Europa no tenía nada equivalente. Y los chips que lo alimentan todo descansan en una isla a cien millas de la costa de un país que quiere tomarla.
Anthropic ha declarado que no tiene intención de relajar las restricciones de Claude sobre el uso militar. La Ley de Producción de Defensa no requiere intención. Requiere cumplimiento.