¿Qué pasa cuando una empresa te dice que una puerta está cerrada, pero descubres que alguien ya entró por el pasillo de al lado? Esa es, en esencia, la incomodidad que hoy rodea a OpenAI, su relación con el Pentágono y el papel de Microsoft como pieza clave de ese engranaje.

El hallazgo fue expuesto por WIRED: aunque OpenAI mantenía en 2023 una política que prohibía el uso militar de sus modelos de inteligencia artificial, el Departamento de Defensa de Estados Unidos ya experimentaba con Azure OpenAI, la versión de esa tecnología distribuida por Microsoft.

Admite Sam Altman que OpenAI no puede controlar el uso militar de la IA por parte de EE.UU.

La revelación dejó al descubierto un mecanismo poco claro. Por un lado, OpenAI decía que no permitía ese acceso. Por otro, portavoces de OpenAI y Microsoft señalaron que Azure OpenAI no estaba sujeto a las políticas de uso de OpenAI, sino a los términos de Microsoft. Sam Altman admitió luego en redes que la situación fue “mal manejada”.

Ahí está la clave del conflicto interno. Muchos empleados no discutían solo si colaborar o no con el ejército estadounidense. También intentaban entender qué cableado regía de verdad: si las restricciones de OpenAI alcanzaban a los productos de Microsoft basados en su misma IA, o si ese circuito funcionaba con reglas separadas.

También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAI
Funcionarios del Pentágono visitaron Oficinas de OpenAI

Y esa confusión no fue menor. Algunos trabajadores vieron a funcionarios del Pentágono visitar las oficinas de OpenAI en San Francisco en 2023. Otros se enteraron por la prensa de que, en enero de 2024, la empresa había eliminado la prohibición general sobre el uso militar de sus sistemas, antes de recibir una explicación interna.

El cambio de política y el nuevo mapa militar

Desde entonces, OpenAI empezó a mostrar una apertura mayor hacia el sector defensa. En diciembre de 2024 anunció una asociación con Anduril para desarrollar sistemas de IA orientados a misiones de seguridad nacional, aunque comunicó internamente que se limitarían a tareas no clasificadas.

Cambio de Política de OpenAI y el nuevo mapa militar

Ese matiz importa. En lenguaje simple, “no clasificadas” significa trabajos que no involucran información secreta de alto nivel. Microsoft, además, afirmó que Azure OpenAI estuvo disponible para el gobierno de Estados Unidos desde 2023, aunque no fue aprobado para cargas de alto secreto hasta 2025.

La comparación ayuda a ver el tablero. Mientras Anthropic tuvo un contrato fallido de unos 200 millones de dólares con el Pentágono y luego avanzó con Palantir en tareas militares clasificadas, OpenAI intentó mostrar una postura de cautela. Investigadores de la firma describieron ese enfoque como “medir dos veces y cortar una”.

También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAI
También te puede interesar:Sam Altman Sorprende al Detallar el Consumo Energético Oculto de la Inteligencia Artificial

Pero no todos dentro de la empresa compraron esa idea. Decenas de empleados expresaron sus dudas en canales públicos de Slack. Algunos advertían que los modelos aún no eran lo bastante fiables para contextos críticos. Otros veían una oportunidad de participar para fijar límites y reducir riesgos.

La pieza más sensible: vigilancia y transparencia

La preocupación central no es abstracta. Expertos legales externos observaron que el lenguaje inicial del acuerdo con el Pentágono parecía dejar abierta la puerta a actividades como vigilancia legal masiva o incluso desarrollo de armas autónomas. Más tarde, OpenAI modificó esos términos.

Vigilancia y transparencia

Charlie Bullock, investigador citado en el debate, señaló que la IA podría usarse para analizar datos de usuarios estadounidenses comprados legalmente a terceros. Noam Brown, investigador de OpenAI, reconoció que el lenguaje original dejaba preguntas legítimas sin respuesta.

“Los civiles en zonas de conflicto serán los más perjudicados por la opacidad”, advirtió Sarah Shoker, exdirectora del equipo de geopolítica de OpenAI.

También te puede interesar:Sam Altman avisa a indios y chinos de que Abandonen las esperanzas de competir con OpenAI
También te puede interesar:Sam Altman Sorprende al Detallar el Consumo Energético Oculto de la Inteligencia Artificial
También te puede interesar:Sam Altman asegura que nunca ha habido un mejor momento para innovar que en la era de IA

Para el usuario común, esta discusión parece lejana, pero toca una fibra muy concreta: quién controla una herramienta cuando sale del laboratorio y entra en sistemas de seguridad, vigilancia o defensa. No se trata solo de la potencia de la IA, sino de quién tiene la llave, quién mueve el interruptor y quién explica después qué hizo con esa energía.

OpenAI sostiene que la inteligencia artificial ya ocupa un lugar importante en la seguridad nacional y que participar permite guiar su uso responsable. El problema es que, cuando el cableado no está a la vista, la confianza se vuelve más frágil.

Y en tecnología, como en una casa, no alcanza con prometer que todo está bajo control: también hay que mostrar dónde están las llaves térmicas.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí