El mayor general William ‘Hank’ Taylor, comandante del Octavo Ejército de Estados Unidos en Corea del Sur, ha reconocido que usa técnicas de inteligencia artificial para mejorar su toma de decisiones. Lo contó en Washington D. C., durante la conferencia de AUSA, y dejó una pista clave: no se trata de combate, sino de mando diario.
Según explicó en una mesa redonda con medios, Taylor recurre a ChatGPT para reflexionar antes de decisiones que afectan a miles de soldados. Dijo, medio en broma, que él y “Chat” se han vuelto muy cercanos últimamente, aunque evitó dar ejemplos personales. La idea central es clara: quiere decidir mejor y en el momento justo para obtener ventajas.
El general, que también es jefe de Estado Mayor del Mando de las Naciones Unidas en Corea del Sur, está probando cómo un chatbot de IA puede apoyar el trabajo diario del cuartel general. No lo usa en operaciones de combate, y ahí está el límite que mencionó al inicio. Por ahora, se centra en gestión de equipos, análisis de opciones y preparación de reuniones.
Su objetivo inmediato es crear modelos analíticos de IA que sirvan a toda la organización. Si consigue que su personal piense con más orden y rapidez, vas a poder coordinar mejor horarios, prioridades y recursos. Falta ver cómo lo integra sin chocar con políticas de seguridad y con flujos ya establecidos.
El Ejército de EE. UU. lleva tiempo integrando inteligencia artificial en logística, vigilancia y tácticas de campo. Responsables militares sostienen que los sistemas basados en IA permiten procesar datos mucho más rápido y afinar la selección de objetivos. Persisten dudas sobre fiabilidad y responsabilidades cuando el software entra en funciones que eran humanas.
Estados Unidos ya ha probado IA en simulaciones de combate. En una de ellas, la Fuerza Aérea y DARPA usaron un F-16 modificado con un sistema autónomo, y el piloto humano no tuvo que intervenir. En paralelo, hay programas que criban datos satelitales, siguen cadenas logísticas y aceleran el papeleo de unidades desplegadas.
También te puede interesar:ChatGPT se Convierte en algo Más: OpenAI Prepara una Red Social Dentro del ChatbotLa cautela no es menor. Desde el Pentágono avisan de que la IA generativa puede filtrar información sensible o llegar a conclusiones erróneas si los datos están incompletos o manipulados. También preocupa la rendición de cuentas: quién responde si una recomendación automática induce un error. Aquí Taylor reconoce otro reto: seguir el ritmo del avance tecnológico y, a la vez, cumplir los requisitos de seguridad más estrictos.
La advertencia más dura llegó del exsecretario de la Fuerza Aérea Frank Kendall, que pide adaptarse a un ciclo operativo cada vez más corto. Los tiempos de respuesta son muy breves, y los comandantes que no se adapten no sobrevivirán al próximo campo de batalla.
¿Qué hace exactamente con el chatbot? Taylor lo plantea como apoyo a la reflexión, no como “oráculo”. Sirve para ordenar opciones, pedir contraargumentos y clarificar criterios de riesgo. Si lo comparamos con la app móvil de notas, aquí vas a poder pedir resúmenes, pedir pros y contras y generar alternativas que quizá no habías considerado.
Él mismo insiste en que quiere modelos de IA internos, entrenados para su organización. Eso permitiría a su personal pensar de forma más eficiente y, sobre todo, decidir a tiempo. Remarca que no traslada esta práctica a decisiones de fuego real ni a la selección directa de objetivos.
Con ChatGPT u otra IA generativa, el primer límite es la información. Nada de datos clasificados ni sensibles. El segundo es el sesgo: si el material de entrada está incompleto o manipulado, la salida te puede engañar. Y el tercero es la seguridad operativa: cada conversación tiene que cumplir normas del Ejército, auditoría y trazabilidad.
China y Rusia también empujan su integración de IA militar, lo que añade presión temporal. Si ves pilotos con herramientas de resumen automático en oficinas de mando, formación específica para jefes de unidad o guías de uso de IA generativa en cuarteles, prepárate para una adopción más amplia. La señal opuesta sería un frenazo normativo por incidentes de seguridad o filtraciones.
También te puede interesar:Descargas de ChatGPT en Móvil, se Estancan y los Analistas ya Hablan del “Fin de la Euforia”Al final, este caso no va de reemplazar a nadie, sino de cómo encajas una ayuda digital en la cadena de mando. Usar ChatGPT para pensar mejor y más rápido puede dar ventaja en gestión diaria, siempre que mantengas control sobre la información y confirmes cada salida. El campo de batalla seguirá exigiendo criterio humano y responsabilidad clara, y eso no lo cambia ningún servicio web de IA.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.