OpenAIAnthropicxaiGrokNotebookLMGoogleMinimaxMaxClawVerceptBank of AmericaBlockTylenolAgentes IAAsk GeminiBumblebee AI

Sam Altman Anuncia Acuerdo Entre OpenAI y el Pentágono, Con Cláusula de Salvaguardas

 | marzo 2, 2026 06:10

Sam Altman soltó la bomba a última hora del viernes: OpenAI ya tiene un acuerdo para que el Departamento de Defensa de EE. UU. use sus modelos de IA dentro de la red clasificada del Pentágono. No estamos hablando de “IA para papeleo”, sino de integrar LLMs en un entorno donde la palabra “operativo” tiene un peso real y consecuencias tangibles.

El pacto llega justo después del choque público entre el Pentágono —al que Altman se refiere como “Department of War”— y Anthropic, uno de los rivales más serios de OpenAI. Y aquí el contexto lo es todo: el DoD presionó a varias empresas para permitir que sus modelos se usaran para “todos los fines legales”, una expresión que, en defensa, puede abarcar escenarios mucho más amplios de lo que cualquiera imaginaría en una simple demo de chatbot.

La pelea con Anthropic ha sido el prólogo de esta historia

Anthropic intentó marcar una línea roja bastante clara: nada de vigilancia masiva doméstica y nada de armas totalmente autónomas. Su CEO, Dario Amodei, publicó un comunicado defendiendo que la empresa “nunca” se opuso a operaciones militares concretas ni intentó limitar el uso de su tecnología de forma ad hoc.

Anthropic y el Pentágono Chocan Por el Uso de Claude, su IA Avanzada

En otras palabras, la postura era: no queremos convertirnos en un botón de veto para misiones específicas, pero sí establecer límites estructurales firmes. Sin embargo, también lanzó una frase que en Washington no pasa desapercibida: en un conjunto limitado de casos, la IA puede socavar valores democráticos en vez de protegerlos.

La tensión no quedó solo en la cúpula directiva. Más de 60 empleados de OpenAI y 300 de Google firmaron una carta abierta pidiendo a sus empresas que respaldaran la postura de Anthropic. Cuando el debate ético escala hasta el interior de las plantillas, el asunto deja de ser puramente estratégico y se convierte en un dilema identitario.

Trump y el Pentágono han respondido con una mano durísima

Tras no cerrar acuerdo con Anthropic, Donald Trump reaccionó con dureza en redes, calificando a la compañía de “chalados de izquierdas” y ordenando a las agencias federales dejar de usar sus productos tras un periodo de retirada de seis meses.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas

Pero la respuesta más contundente llegó desde el Departamento de Defensa. El secretario de Defensa, Pete Hegseth, acusó a Anthropic de intentar “apropiarse de poder de veto sobre las decisiones operativas del ejército” y la designó como riesgo para la cadena de suministro. No era solo un “no te compro”, sino un movimiento que, según lo anunciado, afectaría también a contratistas, proveedores y socios del ejército con efecto inmediato.

CEO de Anthropic Se Mantiene Firme Ante el Plazo del Pentágono

Anthropic, por su parte, aseguró que ni siquiera había recibido comunicación directa del Pentágono ni de la Casa Blanca sobre el estado real de las negociaciones y adelantó que impugnaría en los tribunales cualquier designación como riesgo para la cadena de suministro. El conflicto, por tanto, pasó del terreno técnico al político y, potencialmente, al judicial.

OpenAI entra… prometiendo justo lo que estaba en disputa

Altman sostiene que el contrato de defensa incluye protecciones explícitas sobre los mismos puntos que rompieron la negociación con Anthropic. Señaló dos principios como fundamentales: prohibición de vigilancia masiva doméstica y responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas.

En términos prácticos, el modelo puede ayudar, recomendar, clasificar o resumir, pero la decisión de emplear fuerza debe recaer en un humano identificable y responsable. Lo relevante no es solo que OpenAI lo declare públicamente, sino que, según Altman, el Departamento de Defensa está de acuerdo con esos principios, ya reflejados en ley y política, y que fueron incorporados formalmente al acuerdo.

A esto se suman salvaguardas técnicas diseñadas para garantizar que los modelos “se comporten como deben”. No basta con confiar en el buen uso; se trata de reducir el abuso por diseño, incluso cuando el usuario tenga incentivos para forzar los límites del sistema. En esa línea, Altman también afirmó que OpenAI desplegará ingenieros junto al Pentágono para acompañar la implementación y reforzar la seguridad, lo que funciona tanto como cinturón técnico como mecanismo de control reputacional.

También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades
El Nuevo Dispositivo de IA de OpenAI y Jonathan Ive Quiere Sustituir al Móvil Tradicional

La “pila de seguridad” y el derecho a decir “no” importan más de lo que parece

Según la periodista Sharon Goldman, de Fortune, Altman explicó internamente que el gobierno permitirá a OpenAI construir su propia pila (stack) de seguridad para prevenir usos indebidos. Esto implica que no solo se entrega un modelo, sino un conjunto integrado de controles, filtros, auditorías y límites operativos que no dependen exclusivamente del criterio del usuario final.

La “pila de seguridad” y el derecho a decir “no” importan más de lo que parece

Hay, además, un punto especialmente sensible: si el modelo se niega a realizar una tarea, el gobierno no obligaría a OpenAI a forzarlo. Sobre el papel, esto preserva una autonomía técnica clave. Sin embargo, la incógnita está en cómo se gestiona esa negativa en contextos de presión política, urgencia militar o crisis internacional, donde los incentivos para flexibilizar límites pueden multiplicarse.

La pregunta incómoda: ¿esto es desescalada o alineamiento total?

Altman ha señalado que está pidiendo al Departamento de Defensa que ofrezca los mismos términos a todas las empresas de IA y que cree que todas deberían aceptarlos. La intención aparente es estandarizar mínimos éticos y técnicos en el ámbito de la defensa, algo que la industria no ha logrado por sí sola.

El anuncio, sin embargo, coincidió con un contexto geopolítico especialmente tenso, marcado por bombardeos de Estados Unidos e Israel sobre Irán y llamados de Trump al derrocamiento del Gobierno iraní. En escenarios así, la tentación de empujar la IA hacia tareas más grises, rápidas y difíciles de auditar aumenta considerablemente.

Si OpenAI mantiene de forma efectiva sus líneas rojas —cero vigilancia masiva doméstica y humanos responsables en el uso de la fuerza—, el acuerdo podría convertirse en un estándar replicable para buena parte de la industria. Pero también cabe la posibilidad de que marque el inicio de una etapa en la que las grandes compañías de IA compitan por contratos clasificados mientras el debate ético se resuelve más por decreto que por consenso.

En última instancia, todo dependerá de si esas salvaguardas técnicas y contractuales se traducen en prácticas verificables y sostenidas en el tiempo, o si terminan siendo el peaje narrativo necesario para acceder a la sala donde realmente se toman las decisiones estratégicas.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram