El 28 de febrero, Estados Unidos e Israel bombardearon Irán mientras, en paralelo, estallaba un culebrón interno en Washington sobre qué inteligencia artificial puede —y debe— utilizar el Pentágono.
Según informaciones recogidas por medios estadounidenses, Claude, el modelo desarrollado por Anthropic, habría sido clave en esos ataques pese a que horas antes Donald Trump ordenó que no se empleara.
Cuando una herramienta está profundamente integrada en el “sistema nervioso” militar, prohibirla por decreto puede sonar firme en una rueda de prensa, pero resulta mucho más complejo en la práctica.
El origen del conflicto no fue ideológico, sino logístico. Cuando Estados Unidos buscaba una IA para reforzar sus sistemas de defensa e integrarla con el software de Palantir Technologies, Anthropic ofreció Claude por un dólar, una cifra casi simbólica que le permitió entrar, integrarse y convertirse en infraestructura. Aquella puerta de acceso no se quedó en una simple prueba: derivó en un contrato de 200 millones de dólares y en la incorporación del modelo a múltiples sistemas del Pentágono.

A partir de ahí, Claude dejó de ser “una IA más” para convertirse en una herramienta cotidiana de análisis masivo de datos. En inteligencia, el valor no está en redactar bien, sino en leer montañas de señales, cruzar fuentes y ordenar el caos con rapidez, acortando el tiempo entre recibir información y formular decisiones operativas.
Anthropic no presentó su modelo como una IA sin límites. Estableció dos líneas rojas claras para el ámbito militar. La primera: no utilizar Claude para vigilancia masiva de ciudadanos estadounidenses, un terreno donde el riesgo es menos técnico que político. La segunda: no emplearlo para el desarrollo o control de armas y sistemas de ataque autónomos, es decir, evitar que el modelo se convierta en el “cerebro” que decide o ejecuta violencia sin supervisión humana directa.
También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanasSegún el relato publicado por The Wall Street Journal, estas restricciones generaron fricciones con el Departamento de Defensa y con la administración Trump, que no compartían del todo esos límites operativos.
La tensión escaló cuando, según diversas versiones, se planteó a Anthropic un ultimátum: ofrecer una IA sin esas ataduras o afrontar consecuencias. Entre las opciones mencionadas estaba recurrir a la Ley de Producción de Defensa de 1950, una herramienta legal que permitiría al Gobierno forzar la producción de recursos estratégicos en nombre de la seguridad nacional.

También se habló de “hacerles un Huawei”, en alusión a la inclusión de la tecnológica china Huawei en listas negras comerciales que limitaron su acceso a mercados y socios internacionales.
Dario Amodei, CEO de Anthropic, respondió con una postura calculada: sí al apoyo a la defensa del país, pero no a cualquier precio. La empresa defendió su posición moral y rechazó ceder ante lo que consideraba presión excesiva, dejando claro que estar dentro del sistema no significaba entregar el volante sin condiciones.
La respuesta habría irritado a Trump y al secretario de Defensa, Pete Hegseth, quien calificó a Claude como una “IA woke”. Trump anunció públicamente el fin de la colaboración con Anthropic y la prohibición de utilizar su tecnología en operaciones militares. Sin embargo, según lo publicado por The Wall Street Journal, el ataque aéreo contra Irán se ejecutó con apoyo de herramientas de Anthropic pese a esa orden.
Comandos desplegados en distintas regiones, incluido el Comando Central en Oriente Medio, habrían empleado Claude para evaluar información, identificar objetivos y simular escenarios. En términos prácticos, la IA habría funcionado como acelerador del ciclo de decisión, reduciendo el tiempo entre analizar datos y diseñar un plan plausible.
También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidadesLa razón por la que la prohibición no sería tan sencilla tiene que ver con la integración profunda del modelo en el ecosistema tecnológico militar. Claude mantendría una relación casi simbiótica con el software de Palantir dentro del Pentágono. Eliminarlo no sería tan simple como desinstalar una aplicación: implicaría revisar pipelines, permisos, flujos de análisis y sistemas de visualización que dependen de su funcionamiento.
Según las estimaciones citadas, limpiar completamente su rastro podría llevar hasta seis meses. En un entorno donde la continuidad operativa es crítica, esa transición no es trivial. Por eso, en la práctica, la decisión no es solo política, sino también técnica.
En paralelo, OpenAI ha defendido públicamente que Estados Unidos necesita modelos de IA robustos para cumplir su misión frente a adversarios que también integran inteligencia artificial en sus sistemas. La compañía afirma mantener límites similares —no vigilancia doméstica masiva, no control directo de armas autónomas—, pero introduce un matiz relevante: vincula el uso de sus modelos a lo que el Departamento de Defensa determine como legal.

Ese detalle cambia el equilibrio. Si la referencia última es la legalidad definida por el propio Gobierno, el margen de interpretación puede ampliarse considerablemente. De ahí que la gran incógnita no sea solo tecnológica, sino política: ¿se trata de una necesidad estratégica real o de un conflicto derivado de no obedecer determinadas órdenes?
Lo que sí parece claro es que la guerra moderna ya no se decide únicamente con aviones y satélites, sino también con modelos, integraciones y dependencias invisibles. Cuando una IA entra en el stack militar, retirarla no es simplemente una decisión administrativa: es una operación en sí misma.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.