AnthropicClaudeZapiaChatGPTMetaOpenAITartagliaTilly Norwoodagente de IAElon MuskLenovoIA / Inteligencia ArtificialAgentes IAxaiGrok

La Batalla Entre Anthropic y Defensa Que Puede Redefinir el Futuro de la IA Militar

 | marzo 3, 2026 11:21

¿Hasta dónde dejarías que una máquina te “conozca” si eso promete más seguridad? La pregunta suena abstracta, pero se vuelve doméstica cuando se piensa en tu historial de navegación, tus movimientos y tus contactos, sumados como piezas sueltas de un rompecabezas.

Eso es lo que Anthropic dice que está en juego en su choque con el Departamento de Defensa de Estados Unidos (Pentágono). En un comunicado público, su consejero delegado, Dario Amodei, denunció que la administración Trump, a través del secretario Pete Hegseth, presiona para eliminar dos salvaguardas clave de su modelo Claude: impedir su uso en vigilancia masiva de estadounidenses y en drones armados totalmente autónomos.

Según la compañía, el mecanismo de presión incluye amenazas de “consecuencias enormes”, la expulsión de sus sistemas, y una etiqueta especialmente delicada: ser declarada “riesgo para la cadena de suministro”, un rótulo que, según Anthropic, se reserva para adversarios extranjeros.

Además, la empresa sostiene que se puso sobre la mesa invocar la Ley de Producción de Defensa (una norma para obligar a priorizar suministros críticos) como vía legal para forzar el acceso sin las limitaciones actuales. Amodei fue categórico: afirma que no pueden, “en conciencia”, aceptar ese pedido, aunque dice creer “profundamente” en el rol de la IA para defender democracias.

Del otro lado, el subsecretario de Defensa Emil Michael respondió con un ataque directo: calificó a Amodei de mentiroso con “complejo de Dios”. Y un portavoz del Pentágono negó que busquen vigilancia masiva interna o armas que operen sin intervención humana, y planteó que solo piden usar el modelo para “todos los fines legales”.

CEO de Anthropic Se Mantiene Firme Ante el Plazo del Pentágono

Mientras tanto, el conflicto escaló con una visita forzosa de Amodei y su equipo al cuartel general del Departamento. Según Anthropic, allí se les dio un plazo de 48 horas, hasta el viernes, para capitular. El portavoz militar, por su parte, fijó un límite horario: las 17:01 (hora del Este).

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas

¿Cómo funciona el “interruptor” que Anthropic no quiere apagar?

La clave está en entender qué son esas “salvaguardas”. En la práctica, son como un interruptor en el cableado de una casa: permite encender la luz en una habitación, pero evita que toda la instalación quede expuesta a un uso peligroso. No impide usar la electricidad. Impide ciertos circuitos.

En vigilancia, Anthropic advierte que la IA potente actúa como una central de armado automático. Toma datos dispersos —movimientos, navegación web, asociaciones— que pueden existir en fuentes públicas y, sin orden judicial, convertirlos en un retrato íntimo. La empresa describe ese engranaje como un cambio cualitativo: ya no es “ver piezas”, es reconstruir la vida completa de alguien a escala.

La analogía es simple: no es lo mismo tener papeles sueltos en un cajón que tener una aspiradora robot que, sola, los clasifica, los une y te arma una carpeta con tu rutina diaria. La tecnología que “agrega” (junta y ordena datos) vuelve la vigilancia más profunda y menos visible.

En armas, el punto de fricción es otro interruptor. Anthropic distingue sistemas parcialmente autónomos (automatizan una parte, con supervisión humana) de armas totalmente autónomas (eligen y atacan objetivos sin intervención humana). La empresa reconoce que estas últimas podrían ser cruciales en el futuro, pero sostiene que los modelos actuales no son lo suficientemente fiables para ese rol.

Anthropic también remarcó su historial con seguridad nacional: afirma haber sido la primera firma de IA puntera en desplegar modelos en redes clasificadas, en Laboratorios Nacionales y en ofrecer modelos personalizados a clientes del área. Claude, dice, ya se usa en análisis de inteligencia, simulación, planificación operativa y operaciones cibernéticas.

Y agrega un dato que busca mostrar coherencia: asegura haber renunciado a cientos de millones de dólares para evitar usos vinculados al Partido Comunista Chino, además de haber desmantelado intentos de ciberataques patrocinados por Pekín que buscaban abusar del sistema.

También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades

En el centro de esta disputa hay una oportunidad y una alarma a la vez: si el Estado pide “cualquier uso legal”, pero la ley aún no se adaptó a lo que la IA puede ensamblar, el margen de lo permitido puede volverse un terreno resbaladizo.

Al final, la pelea no trata solo de contratos. Trata de quién controla el interruptor cuando la tecnología deja de ser una herramienta y pasa a ser una central que decide qué se puede conectar.

Si este cableado se define ahora, lo que se enchufe mañana —para proteger o para vigilar— podría sentirse, por primera vez, dentro de la vida cotidiana de cualquiera.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram