El Pentágono está apretando las tuercas a las grandes empresas de IA para que permitan que sus modelos sean utilizados por el Ejército de EE. UU. “para todos los fines lícitos”. En medio de esa presión, Anthropic se juega un contrato de 200 millones de dólares por no querer firmar, sin matices, un “vale todo legal” con Claude.
Según un informe de Axios, Washington estaría trasladando la misma exigencia a pesos pesados como OpenAI, Google y xAI. Aquí no se trata de un debate filosófico en un panel académico, sino de dinero, poder y acceso a la tecnología que define el siglo.
Un funcionario anónimo de la Administración Trump aseguró a Axios que una de esas compañías ya habría aceptado la condición. En otras palabras, alguien ya habría dicho “sí, úsalo para cualquier fin legal” sin imponer mayores restricciones. Al mismo tiempo, el propio funcionario afirmó que las otras dos empresas estarían mostrando “cierta flexibilidad”, lo que sugiere que no han cerrado la puerta, pero sí están negociando los términos del alcance.
Quien estaría ofreciendo mayor resistencia sería Anthropic. Y no es casualidad: Claude, tanto por diseño como por narrativa pública, siempre ha estado más asociado a la idea de “IA con límites claros” que a una lógica de “haz lo que te pidan mientras sea legal”.
La expresión para todos los fines lícitos parece razonable en abstracto. Nadie está proponiendo un uso ilegal, por supuesto. Sin embargo, cuando el cliente es el Departamento de Defensa, el concepto de “lícito” abarca un universo amplísimo.
En el ámbito militar, ese marco puede incluir desde análisis de inteligencia y planificación logística hasta apoyo en operaciones, ciberdefensa o sistemas de targeting indirecto. Según Axios, el Pentágono incluso estaría amenazando con cancelar el contrato de 200 millones con Anthropic si no acepta esa cláusula sin reservas. Traducido al lenguaje real: o aceptas el marco completo, o te quedas fuera de uno de los contratos más relevantes del sector público.
También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas
Además, cuando el cliente es el Departamento de Defensa, no se compra únicamente acceso a un modelo. Se adquiere prioridad, personalización, integración profunda y, en muchos casos, influencia en los estándares que definirán el uso futuro de la tecnología. No es solo dinero; es posición estratégica en la arquitectura de poder tecnológico.
Este conflicto no surge de la nada. En enero, The Wall Street Journal ya informó sobre un desacuerdo importante entre Anthropic y responsables del Departamento de Defensa en torno a los límites de uso de Claude.
La discusión giraba en torno a una cuestión clave: hasta dónde llega la línea roja cuando un LLM deja de ser una herramienta de apoyo y empieza a convertirse en un componente operativo dentro de un entorno militar. Es una diferencia sutil en apariencia, pero enorme en implicaciones.

La polémica escaló cuando más adelante el mismo medio afirmó que Claude habría sido utilizado en una operación del Ejército de EE. UU. relacionada con la captura de Nicolás Maduro. Si esa información es correcta, la conversación deja de ser teórica. Ya no hablamos de políticas escritas en un PDF, sino de la posible participación de un modelo comercial en operaciones sensibles con consecuencias geopolíticas reales.
En ese contexto, la pregunta ya no es solo qué permite la policy, sino qué ocurre cuando un error del modelo puede tener impacto estratégico.
Según Axios, un portavoz de Anthropic afirmó que la empresa “no ha hablado del uso de Claude para operaciones específicas con el Departamento de Guerra”, evitando confirmar conversaciones concretas sobre misiones puntuales. No obstante, dejó claro el núcleo de su postura: la compañía mantiene límites estrictos en áreas especialmente sensibles.
También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades
Entre esos límites destacan dos prohibiciones explícitas: armas totalmente autónomas sin humano en el bucle y vigilancia doméstica masiva. Estos puntos reflejan una estrategia clara: mantener una línea ética definida que permita decir “hasta aquí” sin ambigüedades.
Aquí emerge un choque clásico de incentivos. El Pentágono busca un marco amplio que evite renegociar cada caso de uso, mientras que la empresa prefiere un marco acotado que le permita preservar coherencia con su discurso público y proteger su reputación.
Este episodio va mucho más allá de un contrato concreto. Lo que se está disputando es quién establece las reglas reales del despliegue de IA en defensa: el Estado, por necesidad operativa y seguridad nacional, o las empresas privadas, por reputación, responsabilidad y gestión de riesgos.
Aceptar la cláusula de “todos los fines lícitos” implica exponerse a que la tecnología termine asociada a acciones controvertidas, aunque sean legales. En un mercado donde el talento técnico y los clientes corporativos observan con lupa las posturas éticas, ese vínculo puede tener consecuencias a largo plazo.
La palabra clave aquí es responsabilidad. Cuando un modelo de lenguaje apoya decisiones relacionadas con seguridad nacional, ¿quién asume el coste de un fallo? ¿El operador que ejecuta, el integrador que implementa, el proveedor del modelo que lo entrenó, o todos simultáneamente? La cadena de responsabilidad no es evidente, y la IA introduce capas adicionales de complejidad.
El Pentágono no quiere depender de un “eso viola nuestra policy” en medio de una urgencia operativa. Las empresas, por su parte, no quieren enfrentarse a un “era legal” cuando estalla un escándalo internacional. Es el dilema clásico entre capacidad y control, pero amplificado por una tecnología que escala tanto el alcance como el impacto de cada decisión.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.