ChatGPTMetaClaudeAnthropicOpenAITartagliaTilly Norwoodagente de IAElon MuskLenovoIA / Inteligencia ArtificialAgentes IAxaiGrokNotebookLM

EEUU Abandona Claude por Ser una IA Woke Pero la Usa para Bombardear Irán

 | marzo 3, 2026 04:18

El 28 de febrero, Estados Unidos e Israel bombardearon Irán mientras, en paralelo, estallaba un culebrón interno en Washington sobre qué inteligencia artificial puede —y debe— utilizar el Pentágono.

Según informaciones recogidas por medios estadounidenses, Claude, el modelo desarrollado por Anthropic, habría sido clave en esos ataques pese a que horas antes Donald Trump ordenó que no se empleara.

Cuando una herramienta está profundamente integrada en el “sistema nervioso” militar, prohibirla por decreto puede sonar firme en una rueda de prensa, pero resulta mucho más complejo en la práctica.

De oferta simbólica a pieza crítica del Pentágono

El origen del conflicto no fue ideológico, sino logístico. Cuando Estados Unidos buscaba una IA para reforzar sus sistemas de defensa e integrarla con el software de Palantir Technologies, Anthropic ofreció Claude por un dólar, una cifra casi simbólica que le permitió entrar, integrarse y convertirse en infraestructura. Aquella puerta de acceso no se quedó en una simple prueba: derivó en un contrato de 200 millones de dólares y en la incorporación del modelo a múltiples sistemas del Pentágono.

Anthropic Pentágono

A partir de ahí, Claude dejó de ser “una IA más” para convertirse en una herramienta cotidiana de análisis masivo de datos. En inteligencia, el valor no está en redactar bien, sino en leer montañas de señales, cruzar fuentes y ordenar el caos con rapidez, acortando el tiempo entre recibir información y formular decisiones operativas.

Las líneas rojas de Anthropic

Anthropic no presentó su modelo como una IA sin límites. Estableció dos líneas rojas claras para el ámbito militar. La primera: no utilizar Claude para vigilancia masiva de ciudadanos estadounidenses, un terreno donde el riesgo es menos técnico que político. La segunda: no emplearlo para el desarrollo o control de armas y sistemas de ataque autónomos, es decir, evitar que el modelo se convierta en el “cerebro” que decide o ejecuta violencia sin supervisión humana directa.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas

Según el relato publicado por The Wall Street Journal, estas restricciones generaron fricciones con el Departamento de Defensa y con la administración Trump, que no compartían del todo esos límites operativos.

El ultimátum y la amenaza legal

La tensión escaló cuando, según diversas versiones, se planteó a Anthropic un ultimátum: ofrecer una IA sin esas ataduras o afrontar consecuencias. Entre las opciones mencionadas estaba recurrir a la Ley de Producción de Defensa de 1950, una herramienta legal que permitiría al Gobierno forzar la producción de recursos estratégicos en nombre de la seguridad nacional.

Anthropic, Creadora de Claude, Desembolsa 1.500 millones tras Ser acusada de Piratería Masiva con su IA

También se habló de “hacerles un Huawei”, en alusión a la inclusión de la tecnológica china Huawei en listas negras comerciales que limitaron su acceso a mercados y socios internacionales.

Dario Amodei, CEO de Anthropic, respondió con una postura calculada: sí al apoyo a la defensa del país, pero no a cualquier precio. La empresa defendió su posición moral y rechazó ceder ante lo que consideraba presión excesiva, dejando claro que estar dentro del sistema no significaba entregar el volante sin condiciones.

Prohibición política, uso operativo

La respuesta habría irritado a Trump y al secretario de Defensa, Pete Hegseth, quien calificó a Claude como una “IA woke”. Trump anunció públicamente el fin de la colaboración con Anthropic y la prohibición de utilizar su tecnología en operaciones militares. Sin embargo, según lo publicado por The Wall Street Journal, el ataque aéreo contra Irán se ejecutó con apoyo de herramientas de Anthropic pese a esa orden.

Comandos desplegados en distintas regiones, incluido el Comando Central en Oriente Medio, habrían empleado Claude para evaluar información, identificar objetivos y simular escenarios. En términos prácticos, la IA habría funcionado como acelerador del ciclo de decisión, reduciendo el tiempo entre analizar datos y diseñar un plan plausible.

También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades

Un problema de dependencia tecnológica

La razón por la que la prohibición no sería tan sencilla tiene que ver con la integración profunda del modelo en el ecosistema tecnológico militar. Claude mantendría una relación casi simbiótica con el software de Palantir dentro del Pentágono. Eliminarlo no sería tan simple como desinstalar una aplicación: implicaría revisar pipelines, permisos, flujos de análisis y sistemas de visualización que dependen de su funcionamiento.

Según las estimaciones citadas, limpiar completamente su rastro podría llevar hasta seis meses. En un entorno donde la continuidad operativa es crítica, esa transición no es trivial. Por eso, en la práctica, la decisión no es solo política, sino también técnica.

OpenAI entra en escena

En paralelo, OpenAI ha defendido públicamente que Estados Unidos necesita modelos de IA robustos para cumplir su misión frente a adversarios que también integran inteligencia artificial en sus sistemas. La compañía afirma mantener límites similares —no vigilancia doméstica masiva, no control directo de armas autónomas—, pero introduce un matiz relevante: vincula el uso de sus modelos a lo que el Departamento de Defensa determine como legal.

Sam Altman Anuncia Acuerdo Entre OpenAI y el Pentágono, Con Cláusula de Salvaguardas

Ese detalle cambia el equilibrio. Si la referencia última es la legalidad definida por el propio Gobierno, el margen de interpretación puede ampliarse considerablemente. De ahí que la gran incógnita no sea solo tecnológica, sino política: ¿se trata de una necesidad estratégica real o de un conflicto derivado de no obedecer determinadas órdenes?

Lo que sí parece claro es que la guerra moderna ya no se decide únicamente con aviones y satélites, sino también con modelos, integraciones y dependencias invisibles. Cuando una IA entra en el stack militar, retirarla no es simplemente una decisión administrativa: es una operación en sí misma.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram