ProducerAIOpalGooglexaiOpenAImicrosoftcopilotSonySoft PauseAnthropicArtefactos de ClaudeAsk GeminiVisual IntelligenceappleIsoDDE

Pentágono Firma con Musk Para Usar Grok en Sistemas Clasificados Tras Negativa de Anthropic

 | febrero 25, 2026 02:44

El Pentágono acaba de dar un giro que huele a terremoto interno: según Axios, ha firmado un acuerdo con xAI para integrar Grok —sí, el modelo impulsado por Elon Musk— en sus redes secretas y utilizarlo en misiones militares sobre el terreno.

Y es que esto no va simplemente de “cambiar de chatbot”. Va de romper el monopolio que tenía Claude, de Anthropic, en el procesamiento de información confidencial, y de paso reabrir un debate que pocos quieren plantear en voz alta: qué límites éticos acepta —o está dispuesto a sacrificar— un Estado cuando la inteligencia artificial entra en el terreno militar.

En concreto, el detonante fue una exigencia muy clara de los mandos: poder usar la herramienta para “cualquier fin legal”. A primera vista suena razonable, incluso neutral. Sin embargo, esa fórmula aparentemente aséptica es un campo de minas, porque legal no significa necesariamente sensato, prudente ni alineado con los principios internos de una empresa tecnológica que intenta protegerse —y proteger a terceros— de posibles abusos.

Evidentemente, Anthropic respondió con un no. Pero no fue un rechazo caprichoso, sino coherente con sus propias normas: la compañía se niega a facilitar vigilancia generalizada de ciudadanos estadounidenses y también rechaza participar en el desarrollo de armas completamente autónomas. En otras palabras, no quiere convertirse en el motor de una infraestructura capaz de vigilar masivamente o decidir a quién disparar sin un ser humano en la cadena de mando.

El quid: Grok entra porque xAI acepta lo que Anthropic no acepta

Según se sabe, xAI aceptó las exigencias del Departamento de Defensa sin plantear objeciones. En la práctica, esto se traduce en algo muy concreto: el Pentágono quiere una IA que no discuta el marco de uso, una herramienta con menos fricción y menos respuestas del tipo “no puedo ayudarte con eso”.

Grok entra porque xAI acepta lo que Anthropic no acepta

La pregunta incómoda surge sola: ¿estamos ante una búsqueda legítima de eficiencia operativa o ante la eliminación deliberada de frenos que algunos proveedores consideran inasumibles? Desde Washington, la narrativa es clara: se trata de capacidad y control en entornos clasificados. Si el cliente es el Estado y el contrato es sensible, el proveedor no debería imponer límites que interfieran con misiones, análisis o decisiones estratégicas.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas

Sin embargo, esa lógica desplaza el centro del debate. Ya no se discute si algo es prudente o ético por diseño, sino si interfiere o no con la ejecución de la misión. Y esa diferencia es enorme.

La respuesta de Washington a Anthropic suena a aviso para todo Silicon Valley

El artículo sostiene que la reacción fue especialmente dura. El secretario de Defensa prepara un ultimátum dirigido al CEO de Anthropic, Dario Amodei, en un movimiento que va más allá de una simple reprimenda contractual.

Las autoridades habrían amenazado con sancionar a la empresa e incluso con declararla un “riesgo para el suministro” si mantiene activas sus barreras de protección de datos y límites éticos. Ese punto es el que pone nerviosa a buena parte de la industria tecnológica, porque el mensaje implícito es cristalino: si negarte a ciertas condiciones te convierte en un riesgo estratégico, la libertad empresarial se vuelve relativa cuando el cliente es Defensa.

Anthropic y el Pentágono Chocan Por el Uso de Claude, su IA Avanzada

En otras palabras, “o juegas con nuestras reglas o te quedas fuera de los contratos grandes”. Y en el ámbito militar, “grande” no solo implica presupuestos multimillonarios, sino relaciones de dependencia a largo plazo, influencia institucional y acceso a información privilegiada.

El propio Pentágono admite que el cambio puede doler (y bastante)

Los responsables militares reconocen que sustituir la infraestructura actual provocará problemas operativos severos. Y no es una exageración. No estamos hablando de instalar una aplicación nueva, sino de reconfigurar pipelines, sistemas de permisos, controles de acceso, auditorías, integraciones con sistemas heredados y flujos de trabajo que ya estaban optimizados para un proveedor único.

Ese proceso implica tiempo, fricción interna y riesgos técnicos. Pero lo más delicado no es la ingeniería, sino el peso operativo que se le deposita al asistente. Según sabemos, el modelo de xAI ya ha recomendado “barbaridades” sanitarias en otros contextos, lo que inevitablemente siembra dudas sobre su fiabilidad en escenarios mucho más sensibles.

También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades

Si un sistema tropieza en algo tan básico como recomendaciones de salud, la inquietud es inmediata: ¿qué ocurre cuando la latencia, el contexto incompleto o un prompt mal formulado intervienen en un entorno militar clasificado? El riesgo no es solo que el modelo “alucine” de forma aislada, sino que se convierta en una pieza dentro de una cadena de decisiones donde el error se propaga con rapidez porque el sistema suena convincente y cuenta con respaldo institucional.

Ni Musk ni nadie: Defensa busca alternativas para no casarse con un solo proveedor

Aun así, el Pentágono no quiere depender exclusivamente de la red de Musk. Fuentes internas señalan que el Gobierno también negocia alternativas con Google y OpenAI para integrarlas en proyectos clasificados.

OpenAI llega a un acuerdo millonario con el pentágono

Este matiz desmonta la narrativa simplista de que otras compañías han quedado fuera del tablero. Si estás en conversaciones sobre sistemas clasificados, sigues siendo relevante. La cuestión de fondo no es quién participa, sino bajo qué condiciones.

Y ahí vuelve la incógnita central: ¿aceptarán Google y OpenAI un marco tan laxo como el que plantea Defensa? El Departamento de Defensa parece considerar innegociable la eliminación de ciertas barreras éticas para firmar nuevos contratos. Es decir, menos filtros por diseño, aunque eso amplíe la superficie de riesgo.

La paradoja: EE. UU. pide IAs “sin filtros” mientras Europa persigue justo eso

El contraste internacional es evidente. Mientras Washington prioriza herramientas con menos restricciones internas, en Europa se investigan y sancionan algoritmos por generar contenidos ilegales o no contener adecuadamente sus riesgos.

La diferencia radica en los incentivos. En defensa, el objetivo es ganar capacidad, velocidad y autonomía estratégica. En regulación civil, el objetivo es reducir el daño social y prevenir abusos sistémicos. El problema aparece cuando el mismo modelo es dual-use: puede servir para análisis de inteligencia y detección de patrones, pero también para vigilancia masiva o automatización agresiva sin supervisión suficiente.

En el fondo, esta noticia no trata únicamente de Grok. Trata de que Estados Unidos está dispuesto a entregar secretos militares a una empresa y a un modelo envueltos en polémicas constantes si, a cambio, obtiene una IA que no ponga objeciones operativas. Prescindir de un proveedor por negarse a facilitar el desarrollo de armas autónomas marca un precedente poderoso.

Ahora la atención se desplaza hacia Google y OpenAI. Queda por ver si aceptarán el mismo “cualquier fin legal” o si, llegado el momento, alguien en Silicon Valley decide que esta vez el contrato no compensa el titular.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram