¿Qué pasa cuando una empresa te dice que una puerta está cerrada, pero descubres que alguien ya entró por el pasillo de al lado? Esa es, en esencia, la incomodidad que hoy rodea a OpenAI, su relación con el Pentágono y el papel de Microsoft como pieza clave de ese engranaje.
El hallazgo fue expuesto por WIRED: aunque OpenAI mantenía en 2023 una política que prohibía el uso militar de sus modelos de inteligencia artificial, el Departamento de Defensa de Estados Unidos ya experimentaba con Azure OpenAI, la versión de esa tecnología distribuida por Microsoft.

La revelación dejó al descubierto un mecanismo poco claro. Por un lado, OpenAI decía que no permitía ese acceso. Por otro, portavoces de OpenAI y Microsoft señalaron que Azure OpenAI no estaba sujeto a las políticas de uso de OpenAI, sino a los términos de Microsoft. Sam Altman admitió luego en redes que la situación fue “mal manejada”.
Ahí está la clave del conflicto interno. Muchos empleados no discutían solo si colaborar o no con el ejército estadounidense. También intentaban entender qué cableado regía de verdad: si las restricciones de OpenAI alcanzaban a los productos de Microsoft basados en su misma IA, o si ese circuito funcionaba con reglas separadas.
También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAI
Y esa confusión no fue menor. Algunos trabajadores vieron a funcionarios del Pentágono visitar las oficinas de OpenAI en San Francisco en 2023. Otros se enteraron por la prensa de que, en enero de 2024, la empresa había eliminado la prohibición general sobre el uso militar de sus sistemas, antes de recibir una explicación interna.
El cambio de política y el nuevo mapa militar
Desde entonces, OpenAI empezó a mostrar una apertura mayor hacia el sector defensa. En diciembre de 2024 anunció una asociación con Anduril para desarrollar sistemas de IA orientados a misiones de seguridad nacional, aunque comunicó internamente que se limitarían a tareas no clasificadas.

Ese matiz importa. En lenguaje simple, “no clasificadas” significa trabajos que no involucran información secreta de alto nivel. Microsoft, además, afirmó que Azure OpenAI estuvo disponible para el gobierno de Estados Unidos desde 2023, aunque no fue aprobado para cargas de alto secreto hasta 2025.
La comparación ayuda a ver el tablero. Mientras Anthropic tuvo un contrato fallido de unos 200 millones de dólares con el Pentágono y luego avanzó con Palantir en tareas militares clasificadas, OpenAI intentó mostrar una postura de cautela. Investigadores de la firma describieron ese enfoque como “medir dos veces y cortar una”.
También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAIPero no todos dentro de la empresa compraron esa idea. Decenas de empleados expresaron sus dudas en canales públicos de Slack. Algunos advertían que los modelos aún no eran lo bastante fiables para contextos críticos. Otros veían una oportunidad de participar para fijar límites y reducir riesgos.
La pieza más sensible: vigilancia y transparencia
La preocupación central no es abstracta. Expertos legales externos observaron que el lenguaje inicial del acuerdo con el Pentágono parecía dejar abierta la puerta a actividades como vigilancia legal masiva o incluso desarrollo de armas autónomas. Más tarde, OpenAI modificó esos términos.

Charlie Bullock, investigador citado en el debate, señaló que la IA podría usarse para analizar datos de usuarios estadounidenses comprados legalmente a terceros. Noam Brown, investigador de OpenAI, reconoció que el lenguaje original dejaba preguntas legítimas sin respuesta.
“Los civiles en zonas de conflicto serán los más perjudicados por la opacidad”, advirtió Sarah Shoker, exdirectora del equipo de geopolítica de OpenAI.
También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAIPara el usuario común, esta discusión parece lejana, pero toca una fibra muy concreta: quién controla una herramienta cuando sale del laboratorio y entra en sistemas de seguridad, vigilancia o defensa. No se trata solo de la potencia de la IA, sino de quién tiene la llave, quién mueve el interruptor y quién explica después qué hizo con esa energía.
OpenAI sostiene que la inteligencia artificial ya ocupa un lugar importante en la seguridad nacional y que participar permite guiar su uso responsable. El problema es que, cuando el cableado no está a la vista, la confianza se vuelve más frágil.
Y en tecnología, como en una casa, no alcanza con prometer que todo está bajo control: también hay que mostrar dónde están las llaves térmicas.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.










