¿Te imaginás que una aplicación que usás para escribir, resumir o estudiar termine sentada en la misma mesa que quienes deciden cómo se usan las tecnologías en el ejército? Esa escena, que suena lejana, es el nuevo centro de una pelea abierta entre dos pesos pesados de la inteligencia artificial.
El hallazgo, esta vez, no viene de un laboratorio sino de un cruce ético y político: Darío Amodei, director ejecutivo y cofundador de Anthropic (la empresa detrás de Claude), acusa a OpenAI (creadora de ChatGPT) de decir “mentiras descaradas” sobre su acuerdo con el Departamento de Defensa de Estados Unidos. La información surge de un memorando interno al que accedió The Information.
Según ese escrito, Amodei explica que Anthropic rompió las negociaciones con el Pentágono por una pieza clave: las garantías de uso. Y subraya dos líneas rojas que, para su empresa, funcionan como un interruptor que corta la corriente: que sus modelos no se utilicen en armas autónomas (armas que deciden sin humanos) ni en vigilancia masiva (seguimiento a gran escala de ciudadanos).
Al mismo tiempo, Sam Altman sostiene públicamente que el acuerdo de OpenAI excluye esos dos usos sensibles. Pero Amodei no le cree. En su mensaje, lo acusa de presentarse “falsamente como un pacificador y negociador” y de intentar una “manipulación” que, dice, no estaría funcionando ni con el público ni con los medios.
En la trastienda, la rivalidad ya era visible. En la Cumbre del Impacto de la IA, Altman y Amodei evitaron darse la mano en la foto final. Fue un gesto pequeño, pero reveló el clima.
Para entender el mecanismo, sirve una analogía doméstica. Pensá en la IA como el cableado central de una casa: puede encender luces, abrir puertas y hacer más cómoda la vida cotidiana. Pero si ese mismo cableado se conecta a un sistema de seguridad sin límites, también puede alimentar cámaras en cada habitación o automatizar decisiones peligrosas. La discusión no es si hay electricidad, sino quién controla el interruptor y qué enchufes quedan habilitados.
Anthropic, según Amodei, intentó que el contrato incluyera límites escritos y verificables. Es decir, no solo promesas, sino reglas operativas. El memorando sostiene que el Departamento de Defensa insistió en incorporar justamente los usos que la empresa consideraba inaceptables: armas autónomas y vigilancia a gran escala. Ahí se cortó el acuerdo.
Desde el ángulo de The Information, la alianza entre OpenAI y el ejército estadounidense aparece descrita como “teatro de seguridad”. Es una expresión dura: sugiere un escenario con palabras tranquilizadoras, pero con pocos candados reales en la puerta.
Ahora, el dato práctico que Amodei usa como termómetro público es otro: destaca que Claude figura como número 2 en la App Store. Lo presenta como evidencia de que, al menos por estos días, una parte de la audiencia premia la postura más restrictiva. Y deja una frase interna clara: dentro de Anthropic no hay arrepentimiento por haberse bajado de la negociación.
El costo real: confianza y límites visibles
En el día a día, la mayoría no va a leer un contrato con Defensa. Pero sí siente el efecto de una palabra clave: confianza. Si un modelo de IA se vuelve una herramienta “de uso general” para estudiar, programar o trabajar, su credibilidad depende de límites entendibles y auditables, no solo de declaraciones.
Por eso este episodio funciona como una oportunidad para el usuario común: obliga a preguntar qué condiciones acepta una empresa cuando integra su tecnología con el Estado, qué controles ofrece y qué usos prohíbe de forma explícita.
Y, como en una casa bien cableada, a veces lo más importante no es el aparato nuevo, sino saber dónde está el tablero y quién tiene la llave.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.










