ChatGPT-4oClaude CoworkClaude CodeAnthropicxaiGrokOpenClawOpenAIAsk GeminiByteDanceXiaomi-Robotics-0agentes de IALudus CoriovalliTwitchNeuro-sama

Anthropic y el Pentágono Chocan Por el Uso de Claude, su IA Avanzada

 | febrero 16, 2026 06:36

El Pentágono está apretando las tuercas a las grandes empresas de IA para que permitan que sus modelos sean utilizados por el Ejército de EE. UU. “para todos los fines lícitos”. En medio de esa presión, Anthropic se juega un contrato de 200 millones de dólares por no querer firmar, sin matices, un “vale todo legal” con Claude.

Según un informe de Axios, Washington estaría trasladando la misma exigencia a pesos pesados como OpenAI, Google y xAI. Aquí no se trata de un debate filosófico en un panel académico, sino de dinero, poder y acceso a la tecnología que define el siglo.

Un funcionario anónimo de la Administración Trump aseguró a Axios que una de esas compañías ya habría aceptado la condición. En otras palabras, alguien ya habría dicho “sí, úsalo para cualquier fin legal” sin imponer mayores restricciones. Al mismo tiempo, el propio funcionario afirmó que las otras dos empresas estarían mostrando “cierta flexibilidad”, lo que sugiere que no han cerrado la puerta, pero sí están negociando los términos del alcance.

Quien estaría ofreciendo mayor resistencia sería Anthropic. Y no es casualidad: Claude, tanto por diseño como por narrativa pública, siempre ha estado más asociado a la idea de “IA con límites claros” que a una lógica de “haz lo que te pidan mientras sea legal”.

El “todos los fines lícitos” suena inocente, pero es una cláusula enorme

La expresión para todos los fines lícitos parece razonable en abstracto. Nadie está proponiendo un uso ilegal, por supuesto. Sin embargo, cuando el cliente es el Departamento de Defensa, el concepto de “lícito” abarca un universo amplísimo.

En el ámbito militar, ese marco puede incluir desde análisis de inteligencia y planificación logística hasta apoyo en operaciones, ciberdefensa o sistemas de targeting indirecto. Según Axios, el Pentágono incluso estaría amenazando con cancelar el contrato de 200 millones con Anthropic si no acepta esa cláusula sin reservas. Traducido al lenguaje real: o aceptas el marco completo, o te quedas fuera de uno de los contratos más relevantes del sector público.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas
La IA de Anthropic Que Redacta Contratos, Programa y Recalcula Finanzas en Segundos

Además, cuando el cliente es el Departamento de Defensa, no se compra únicamente acceso a un modelo. Se adquiere prioridad, personalización, integración profunda y, en muchos casos, influencia en los estándares que definirán el uso futuro de la tecnología. No es solo dinero; es posición estratégica en la arquitectura de poder tecnológico.

La grieta venía de antes: Claude y el Pentágono ya chocaron en enero

Este conflicto no surge de la nada. En enero, The Wall Street Journal ya informó sobre un desacuerdo importante entre Anthropic y responsables del Departamento de Defensa en torno a los límites de uso de Claude.

La discusión giraba en torno a una cuestión clave: hasta dónde llega la línea roja cuando un LLM deja de ser una herramienta de apoyo y empieza a convertirse en un componente operativo dentro de un entorno militar. Es una diferencia sutil en apariencia, pero enorme en implicaciones.

La polémica escaló cuando más adelante el mismo medio afirmó que Claude habría sido utilizado en una operación del Ejército de EE. UU. relacionada con la captura de Nicolás Maduro. Si esa información es correcta, la conversación deja de ser teórica. Ya no hablamos de políticas escritas en un PDF, sino de la posible participación de un modelo comercial en operaciones sensibles con consecuencias geopolíticas reales.

En ese contexto, la pregunta ya no es solo qué permite la policy, sino qué ocurre cuando un error del modelo puede tener impacto estratégico.

Anthropic intenta marcar terreno con dos prohibiciones muy claras

Según Axios, un portavoz de Anthropic afirmó que la empresa “no ha hablado del uso de Claude para operaciones específicas con el Departamento de Guerra”, evitando confirmar conversaciones concretas sobre misiones puntuales. No obstante, dejó claro el núcleo de su postura: la compañía mantiene límites estrictos en áreas especialmente sensibles.

También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades
Anthropic Presenta un Claude para Sanidad tras el Lanzamiento de ChatGPT Health

Entre esos límites destacan dos prohibiciones explícitas: armas totalmente autónomas sin humano en el bucle y vigilancia doméstica masiva. Estos puntos reflejan una estrategia clara: mantener una línea ética definida que permita decir “hasta aquí” sin ambigüedades.

Aquí emerge un choque clásico de incentivos. El Pentágono busca un marco amplio que evite renegociar cada caso de uso, mientras que la empresa prefiere un marco acotado que le permita preservar coherencia con su discurso público y proteger su reputación.

Lo que de verdad está en juego: quién define las reglas de la IA en defensa

Este episodio va mucho más allá de un contrato concreto. Lo que se está disputando es quién establece las reglas reales del despliegue de IA en defensa: el Estado, por necesidad operativa y seguridad nacional, o las empresas privadas, por reputación, responsabilidad y gestión de riesgos.

Aceptar la cláusula de “todos los fines lícitos” implica exponerse a que la tecnología termine asociada a acciones controvertidas, aunque sean legales. En un mercado donde el talento técnico y los clientes corporativos observan con lupa las posturas éticas, ese vínculo puede tener consecuencias a largo plazo.

La palabra clave aquí es responsabilidad. Cuando un modelo de lenguaje apoya decisiones relacionadas con seguridad nacional, ¿quién asume el coste de un fallo? ¿El operador que ejecuta, el integrador que implementa, el proveedor del modelo que lo entrenó, o todos simultáneamente? La cadena de responsabilidad no es evidente, y la IA introduce capas adicionales de complejidad.

El Pentágono no quiere depender de un “eso viola nuestra policy” en medio de una urgencia operativa. Las empresas, por su parte, no quieren enfrentarse a un “era legal” cuando estalla un escándalo internacional. Es el dilema clásico entre capacidad y control, pero amplificado por una tecnología que escala tanto el alcance como el impacto de cada decisión.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram