Una balanza con principios de un lado y 180 mil millones de dólares del otro, perfectamente equilibrada

El 13 de febrero, Anthropic recaudó 30.000 millones de dólares en una Serie G liderada por GIC y Coatue, con una valoración de 380.000 millones. El mismo día, Anthropic reveló que sus ingresos anualizados habían alcanzado los 14.000 millones, creciendo más de 10x al año. El mismo día, el Departamento de Defensa publicó y luego eliminó un documento que añadía a Anthropic a una lista de empresas consideradas una amenaza para la seguridad nacional de Estados Unidos. El mismo día, Dario Amodei le dijo a Dwarkesh Patel que la humanidad está a solo unos años de construir "un país de genios en un centro de datos". El mismo día, Anthropic donó 20 millones de dólares a Public First, un super PAC que impulsa controles sobre la IA en Washington.

Cinco historias. Un solo día. Una sola empresa. Y cada historia jala en una dirección distinta.

La Semana que Siguió

El documento del DoD fue eliminado en cuestión de horas, pero la señal era clara. Dos días después, el 15 de febrero, Axios reportó que el Pentágono estaba considerando romper su relación con Anthropic por la insistencia de la empresa en mantener sus límites de seguridad — concretamente, su negativa a construir sistemas de vigilancia masiva o armas de focalización totalmente autónomas. Para el 16 de febrero, un alto funcionario dijo que el secretario de Defensa Pete Hegseth estaba "cerca" de designar a Anthropic como una "preocupación de seguridad", lo que le cortaría el acceso a contratos militares por completo.

Anthropic respondió de la única manera que una empresa segura de su posición puede responder: siguió operando. El 17 de febrero, lanzó Claude Sonnet 4.6 con una ventana de contexto de un millón de tokens, abrió una oficina en Bengaluru — su segunda en Asia —, se asoció con Figma en Code to Canvas y firmó con Infosys como socio empresarial.

Y entonces, el 18 de febrero, The Information reveló el número que pone todo en contexto.

Costos esperados de nube y entrenamiento de Anthropic hasta 2029: más de 80.000 millones a Amazon, Google y Microsoft para inferencia, más hasta 100.000 millones para entrenamiento de modelos.

La Aritmética del Principio

Consideremos la posición que Anthropic se ha construido. Una empresa valorada en 380.000 millones acaba de comprometerse a gastar 180.000 millones que aún no tiene — más de 12 veces sus ingresos anuales actuales — solo en infraestructura; recaudó 30.000 millones para financiar esto, pero 30.000 millones es un pago inicial sobre 180.000 millones, no una solución.

Ingresos anualizados actuales (crecimiento anual de 10x)
Costos comprometidos de nube y entrenamiento hasta 2029

De ahí que esa distancia exija cerrarse de una manera que la ronda actual no alcanza a explicar: los ingresos tienen que crecer aproximadamente 4x más allá de la trayectoria actual para cubrir solo los costos de infraestructura — antes de sueldos, antes de investigación, antes de los 20 millones en donaciones políticas, antes de todo lo demás que hace una empresa.

Y aquí es donde la historia del Pentágono deja de ser una nota al pie política. El ejército estadounidense es uno de los mayores clientes potenciales para sistemas de IA; Anthropic acaba de decirle que no construirá los productos que quiere comprar. No es un impacto hipotético en los ingresos. Es uno real, elegido deliberadamente, por una empresa que necesita cada dólar de ingresos que pueda encontrar.

Lo que el Pentágono Pasó por Alto

El documento del DoD — el publicado y luego eliminado el 13 de febrero — según los reportes añadía a Anthropic a una lista de empresas con posibles vínculos con el ejército chino. La acusación parece derivar de los inversores de Anthropic, no de sus operaciones: GIC, que lideró la ronda de 30.000 millones, es el fondo soberano de Singapur, y la respuesta del Pentágono ante una empresa estadounidense de IA enfocada en la seguridad que recibe capital singapurense fue clasificarla brevemente junto a amenazas de seguridad reales.

La eliminación sugiere que alguien se dio cuenta de lo absurdo. Ahora bien, la secuencia es reveladora de algo más profundo que un error burocrático: la frustración del Pentágono con Anthropic no tiene que ver realmente con China, sino con el control. El ejército quiere empresas de IA que construyan lo que el ejército pide. Anthropic dijo que no. La lista militar china fue una táctica de presión. La amenaza de designarla "preocupación de seguridad" fue otra.

El Nombramiento de Liddell

Enterrado en las noticias del mismo día: Anthropic incorporó a Chris Liddell a su junta directiva. Liddell es un exejecutivo de Microsoft y GM que trabajó en la Casa Blanca de Trump. El nombramiento fue reportado por el Wall Street Journal junto con la ronda de financiación, casi como un detalle secundario.

Ahora bien, no era un detalle secundario — era la compra de un tipo de credibilidad muy específico. No se incorpora a un exfuncionario de la administración Trump a la junta la misma semana que el Pentágono amenaza con designarte una preocupación de seguridad por accidente. La donación de 20 millones al super PAC, el nombramiento en la junta, los lanzamientos de productos simultáneos: son los movimientos de una empresa que sabe que el principio que defiende tiene un precio, y que intenta pagarlo en todas las divisas excepto la que el Pentágono exige.

La Dependencia

Amazon es el principal proveedor de nube de Anthropic. Google es el segundo. Microsoft se convirtió recientemente en uno de sus principales clientes. Es decir, los 180.000 millones en costos de nube fluyen precisamente hacia las empresas que compiten con Anthropic en el mercado de IA empresarial — lo que convierte a la empresa en cliente, competidora y dependiente de las tres tecnológicas más grandes del mundo de manera simultánea.

Cuando Dario Amodei le habla a Dwarkesh Patel de "un país de genios en un centro de datos", el centro de datos pertenece a otra persona. Los genios corren sobre cómputo alquilado. El país paga renta a tres arrendadores que también administran países competidores.

La empresa de IA más comprometida con sus principios es también la más dependiente. No es una contradicción. Es el costo del principio.

La Apuesta

Todo el andamiaje de esta apuesta descansa sobre una sola condición: que el crecimiento de ingresos — actualmente 10x anual — supere los 180.000 millones en compromisos antes de que estos venzan; que la presión del Pentágono se disipe o sea superada a través de canales políticos (de ahí el super PAC, de ahí el nombramiento en la junta); y que Amazon, Google y Microsoft sigan proporcionando infraestructura a un competidor porque los ingresos del gasto de nube de Anthropic superan la amenaza competitiva de sus productos.

Dicho de otro modo: la tecnología de Anthropic tiene que ser lo suficientemente buena para que clientes, inversores y proveedores de infraestructura concluyan que la necesitan más de lo que ella los necesita a ellos. El producto tiene que ser la palanca, porque ninguna otra lo es.

El 13 de febrero, una sola empresa contó cinco historias distintas sobre sí misma: una startup de 380.000 millones, una amenaza para la seguridad nacional, una pionera de la seguridad en IA, un operador político, una dependiente de sus propios competidores. Las cinco no son contradicciones sino el costo de intentar construir la tecnología más poderosa de la historia mientras te niegas a dejar que otros decidan cómo se usa.

El principio cuesta 180.000 millones. Anthropic está tratando de ganárselos.