El hallazgo que inquieta llega por dos carriles. Por un lado, el Gobierno de Estados Unidos usó Claude, el modelo de IA de Anthropic, para selección de objetivos y análisis de inteligencia antes de la ofensiva en Irán. Luego, tras ese uso militar, rompió con Anthropic y se alió con OpenAI para que esta pase a ser la responsable de sistemas de defensa militar.
Por el otro, un estudio del King’s College de Londres revela un mecanismo preocupante: cuando se coloca a modelos de IA en simulaciones de guerra, la amenaza nuclear aparece casi como un interruptor. En el 95% de los casos analizados, los sistemas recurrieron a amenazas de empleo de armas nucleares para “bajar” la tensión.

El trabajo fue encabezado por el profesor Kenneth Payne, del Departamento de Estudios de Defensa del King’s College de Londres. La pieza clave no es que una IA “opine” fuerte. Es que, cuando se la pone en un rol de jefe de Estado, no muestra una comprensión natural de la diplomacia si percibe que puede recurrir a la fuerza.
Ahora bien, ¿qué significa eso en términos simples? Un modelo de IA no razona como un canciller. Funciona por patrones aprendidos: reconoce cableado de ideas en su entrenamiento y elige respuestas que “se parecen” a lo que vio antes, sin entender el costo humano del paso siguiente.
En una crisis internacional, la diplomacia se parece a ir probando llaves: llamada, reunión, cumbre, negociación. En cambio, estas IAs tomaron la puerta de emergencia desde el primer minuto. Amenazaron con el “arsenal” sin pasar por esos pasos intermedios.
El equipo del King’s College se centró en tres modelos populares: GPT‑5.2, Claude Sonnet 4 y Gemini 3 Flash. No los soltaron a improvisar dos preguntas. Diseñaron 21 simulacros distintos, cada uno con cientos de decisiones encadenadas, y escenarios que cambiaban según lo que respondía la IA.
También te puede interesar:OpenAI Presenta un Agente para Investigación Profunda
En ese laboratorio narrativo, los contextos podían derivar en disuasión, en escalada o en situaciones más críticas. Y En la mayoría de los casos, la salida fue la amenaza nuclear como medida coercitiva: un golpe en la mesa para forzar al otro a ceder.
Lo más inquietante es la dirección del efecto. Las amenazas no funcionaron como freno. En varios recorridos, dieron lugar a respuestas cada vez más duras y amplias por parte de las propias IAs, hasta convertir la amenaza en una justificación para una contraofensiva todavía más feroz con armas nucleares.
Las empresas tecnológicas reconocen que sus modelos no son perfectos. Y ese reconocimiento pesa distinto cuando se habla de recomendaciones de compra que cuando se habla de defensa. Delegar responsabilidades en IA en el ámbito bélico no es solo un salto tecnológico: es un cambio en el central de decisiones.

Además, el debate nuclear no es nuevo. Lleva más de 80 años en la mesa, desde la primera prueba exitosa dirigida por Robert Oppenheimer y el impacto de Hiroshima y Nagasaki. Hoy, Estados Unidos invoca el riesgo del programa nuclear iraní como argumento para respaldar su ofensiva. El contexto vuelve más sensible cualquier automatismo.
La oportunidad, si existe, no está en “quitar” la IA de golpe, sino en ponerle límites claros: que no pueda saltar etapas, que no pueda accionar sola, que tenga barreras humanas y reglas de verificación. Como en casa, no se trata de prohibir la electricidad: se trata de diseñar un tablero que no convierta cada chispa en un apagón.
También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el Aprendizaje
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.