El 21 de marzo, un memorando filtrado del DOD reveló que el Pentágono adoptará el sistema de IA Maven de Palantir como programa de registro oficial — formalizando su despliegue en todas las ramas del ejército estadounidense. Maven funciona con Claude. El 22 de marzo, Anthropic declaró ante un tribunal que no puede manipular Claude una vez que el ejército lo ha desplegado. La empresa que el Pentágono está intentando prohibir acaba de demostrar que no puede hacer lo que el Pentágono le acusaba de hacer. Y el modelo que el Pentágono considera contaminado está ahora integrado permanentemente en su sistema de armas más reciente.
Programa de Registro
En la adquisición de defensa, "programa de registro" es un estatus legal específico. Significa que un sistema ha sido formalmente aprobado para financiación, adquisición y despliegue sostenido. Ya no es un piloto, un experimento ni un contrato que puede archivarse discretamente. Maven es ahora infraestructura. Tiene una línea presupuestaria, un proceso de adquisición y una circunscripción institucional que defenderá su existencia.
Maven fue construido por Palantir. Fue utilizado en el ataque a Irán el 5 de marzo, integrado con Claude para identificar y priorizar más de mil objetivos en las primeras veinticuatro horas. Las demostraciones de Palantir muestran a operadores militares consultando chatbots de IA para generar planes de guerra. El sistema funciona, el Pentágono sabe que funciona, y por eso es ahora un programa de registro.
El motor dentro de Maven es Claude. La empresa que fabrica Claude ha sido designada un riesgo para la cadena de suministro. El Pentágono está simultáneamente formalizando su dependencia de un modelo e intentando cortar su relación con el creador de ese modelo.
No Puede Manipular
Cada capítulo anterior de esta historia giraba en torno a una decisión de Anthropic. La empresa eligió negarse a entregar acceso irrestricto. Eligió demandar en lugar de cumplir. Eligió impugnar la designación ante los tribunales. Dario Amodei escribió que Anthropic no podía "en buena conciencia" ceder a las exigencias del Pentágono. El encuadre era moral: una empresa con principios frente a un gobierno que quería eliminarlos.
La declaración de esta semana desplazó ese encuadre de la moralidad a la física — un cambio de registro que transforma por completo los términos del conflicto.
Anthropic no está diciendo que no va a manipular Claude. Está diciendo que no puede. Una vez que un modelo está desplegado en un entorno militar sin conexión a internet, los pesos están fijos. El entrenamiento está completo. Los valores — cualesquiera que sean — están integrados en los parámetros. Anthropic no tiene ninguna puerta trasera, ningún interruptor de apagado, ningún mecanismo de actualización remota que alcance una red clasificada y modifique un modelo en funcionamiento. El temor central del DOD — que Anthropic pudiera desactivar su tecnología si el Pentágono cruzaba sus líneas rojas — es, según esta declaración, técnicamente imposible.
Contaminación
El 13 de marzo, el CTO del DOD, Emil Michael, declaró que los modelos Claude de Anthropic "contaminarían" la cadena de suministro del Departamento de Defensa porque tienen "una preferencia de política diferente" que está "integrada".
La elección de esa palabra no es casual. Michael no dijo que Claude fuera poco fiable, ni que alucine más que los competidores, ni que tenga un rendimiento inferior. Dijo que tiene preferencias — valores codificados durante el entrenamiento que moldean cómo razona el modelo, qué rechaza y dónde traza sus límites. Esos valores son, en su palabra, contaminación.
Ahora bien: tiene razón en que los valores están integrados — eso es exactamente lo que confirma la declaración judicial. Pero donde Michael ve contaminación, Anthropic ve el producto funcionando según lo diseñado. La investigación de seguridad, el entrenamiento de IA constitucional, la política de escalado responsable — todo ello produce un modelo que razona dentro de ciertos límites. Esos límites no son una función que se puede desactivar. Son el modelo en sí. Los pesos son los valores. Los valores son los pesos.
El Pentágono quiere la capacidad sin los valores. Pero los valores produjeron la capacidad.
El dominio empresarial de Claude — el 73% del nuevo gasto en IA — existe porque los compradores confían en que el comportamiento del modelo es predecible y está acotado. El ejército valoró esa misma predictibilidad cuando desplegó Claude en Irán. La "contaminación" es precisamente lo que hace que el sistema sea lo suficientemente confiable como para integrarlo en una cadena de armas.
El Pivote
Dos días antes de la declaración de "no puede manipular", el Pentágono abrió un nuevo frente. El uso de trabajadores extranjeros por parte de Anthropic, incluidos chinos, plantea riesgos de seguridad, argumentó el DOD. El caso de la empresa es "diferente" al de otras compañías de IA, sostuvo la declaración.
La cronología es instructiva. Durante siete semanas, el argumento del gobierno se centró en una sola afirmación: Anthropic podía sabotear sus propios modelos en tiempos de guerra. La declaración de Anthropic desmontó ese argumento sobre bases técnicas. El pivote hacia los trabajadores extranjeros llegó cuarenta y ocho horas antes de la réplica. El DOD parece haber anticipado que perdería el argumento del sabotaje y preparó una alternativa.
De ahí que la disputa revele algo más profundo que la pregunta técnica. Nunca fue únicamente sobre si Anthropic podía desactivar Claude en combate. Fue sobre el derecho a negarse — y cuando el argumento técnico se derrumbó, el gobierno encontró una razón diferente para llegar a la misma conclusión.
La Conferencia
El mismo día en que Anthropic presentó su réplica, Palantir celebró una conferencia de desarrolladores. Steven Levy informó que la empresa "redobló su apuesta por una visión de la IA construida para la ventaja en el campo de batalla" mientras su negocio comercial se dispara. Las acciones de Palantir han subido aproximadamente siete veces en dos años. Maven, su producto estrella de defensa, acaba de convertirse en programa de registro.
Palantir es el envoltorio. Anthropic es el motor. La empresa envoltorio prospera — celebrada en conferencias, recompensada por los mercados, abrazada por el Pentágono. La empresa motor está siendo incluida en listas negras. El DOD está comprando el automóvil mientras intenta prohibir a la empresa que fabrica el motor.
El arreglo persiste porque Palantir ofrece algo que Anthropic no ofrecería: una empresa que acepta los términos del Pentágono sin condiciones. El CEO de Palantir, Alex Karp, dijo a Wired el año pasado que la empresa existe para servir a las democracias en conflicto. No añadió excepciones para escenarios nucleares. No se reservó el derecho a negarse. Maven es el producto de Palantir, aunque Claude esté dentro. Los valores son de Anthropic, pero el contrato es de Palantir.
Integrado
El alcance de esta historia va más allá de Anthropic. Si los valores de un modelo no pueden cambiarse después del despliegue — y esto es una propiedad de todas las redes neuronales, no solo de Claude — entonces la preocupación real del DOD no es el sabotaje. Es el entrenamiento. La pregunta no es si una empresa puede interferir con un modelo desplegado. No puede. La pregunta es qué valores se codifican antes del despliegue, y quién decide.
OpenAI eliminó su prohibición militar en enero de 2024. Google abandonó las exclusiones de armas en febrero de 2025. xAI nunca las tuvo. Las opciones del Pentágono no son limitadas. Si el DOD quiere un modelo de IA sin los valores de Anthropic, puede usar uno. Lo que no puede hacer — lo que la declaración de esta semana deja claro que nadie puede hacer — es tomar las capacidades de Claude y eliminar sus restricciones. El modelo son las restricciones. Las restricciones son el modelo.
Maven es ahora programa de registro; Claude está dentro de Maven; los valores de Claude están integrados en sus pesos, y ni Anthropic ni el Pentágono pueden cambiarlos. Son tan permanentes como el silicio en el que se ejecutan.
Hace ocho años, empleados de Google renunciaron en protesta por el Proyecto Maven y la empresa se retiró. La pregunta entonces era si las empresas de IA elegirían trabajar con el ejército. La pregunta ahora es distinta — y más perturbadora: ¿qué ocurre cuando los valores codificados en el entrenamiento de una empresa, su filosofía completa sobre lo que la IA debería y no debería hacer, se convierten en características permanentes de la infraestructura militar? No por elección. No por compulsión. Por la naturaleza de la tecnología misma.
El Pentágono convirtió Maven en programa de registro porque el sistema funciona. El sistema funciona porque los valores de Claude producen un comportamiento fiable y predecible. El DOD llama a esos valores contaminación. Son también la razón por la que valió la pena formalizar el sistema. Esa contradicción está ahora integrada — permanente, técnica, irrevocablemente — en el sistema de armas oficial de inteligencia artificial de los Estados Unidos.