¿Qué pasa cuando una app que usás para estudiar, escribir o programar cambia de “vecindario” sin avisar y entra en el mundo militar? Para muchos, no es una pregunta abstracta. Es la sensación concreta de entregar datos personales como quien deja una copia de la llave en un lugar que ya no conoce del todo.
Según Android Headlines, el Pentágono canceló de forma abrupta sus contratos con Anthropic después de que la empresa se negara a participar en tareas de vigilancia para el ejército de Estados Unidos. Y el hueco no quedó vacío: OpenAI, responsable de ChatGPT, asumió el control de sistemas ligados a la defensa para cubrir esa salida.

En ese mismo informe aparece el argumento central. Sam Altman defendió el acuerdo con una frase que funciona como interruptor retórico: “seguridad nacional”. La clave, sostiene, es mantener la ventaja tecnológica de Estados Unidos frente a otros países, incluso si eso empuja al software de consumo hacia la industria armamentística.
El mecanismo detrás de esta ruptura venía cableado desde antes. El conflicto entre Anthropic y el gobierno se remonta al mandato de Donald Trump, cuando la compañía ligada a Claude fue vetada en el ámbito gubernamental. Sin embargo, informes sobre un ataque indican que el ejército usó igualmente su IA en bombardeos sobre Irán.
Ese uso no autorizado fue la pieza clave que terminó de romper la poca confianza disponible. Después, el Departamento de Defensa exigió a Anthropic abandonar todas sus operaciones en un plazo máximo de seis meses.
Para entender el giro, sirve una analogía doméstica. La IA, en este caso, se parece menos a un “cerebro” y más a un tablero eléctrico de una casa: no decide qué vida se vive adentro, pero sí qué habitaciones quedan iluminadas y qué puertas se pueden accionar. Quien controla ese tablero define prioridades, accesos y límites.
También te puede interesar:Anthropic Se Enfrenta al Veto de EE UU Mientras Claude Domina la App Store de AppleY cuando una empresa se niega a conectar ciertos cables —por ejemplo, vigilancia—, el sistema busca otro electricista dispuesto a hacerlo. Por eso, en paralelo al choque con Anthropic, el Pentágono integró Grok (modelo de IA ligado a Elon Musk) en sus redes clasificadas, con una búsqueda explícita: proveedores dispuestos a operar sin las mismas restricciones éticas corporativas.
OpenAI, por su parte, intentó marcar una frontera. Asegura que su software no tiene autonomía para ejecutar ataques letales por sí mismo. Ese punto suele discutirse con el término autonomía (capacidad de actuar solo), y la compañía promete que siempre habrá un supervisor humano autorizando cualquier acción armada.
Esa promesa apunta a desactivar un miedo específico: que un algoritmo pueda decidir abrir fuego. Pero también instala otra pregunta, más cotidiana, en el centro de la escena: si ChatGPT se integra en circuitos militares, ¿qué significa eso para la información que la gente vuelca en el chat?
La reacción fue inmediata. La deriva militar de OpenAI provocó cancelaciones masivas de suscripciones a ChatGPT y una migración hacia servicios de la competencia. Como consecuencia de ese corrimiento, Claude se convirtió rápidamente en la aplicación más descargada en las principales tiendas digitales.
En otras palabras, el mercado actuó como termómetro moral. Para miles de usuarios, el problema no es solo “qué hace” la IA, sino con quién se engrana cuando deja de ser una herramienta de escritorio y pasa a formar parte de un sistema de defensa.
Este caso revela un choque difícil de disimular: las prioridades del gobierno estadounidense no siempre calzan con los códigos internos de las empresas de inteligencia artificial. Y cuando no calzan, el Estado busca otro actor que sí acepte el encargo.
También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanasLa oportunidad, para el usuario común, es más simple de lo que parece: revisar a quién le entrega sus datos y con qué posibles usos. Porque en el tablero eléctrico de la tecnología, a veces el cambio más importante no es la luz nueva, sino quién tiene la mano en la llave.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.