¿Hasta dónde dejarías que una máquina te “conozca” si eso promete más seguridad? La pregunta suena abstracta, pero se vuelve doméstica cuando se piensa en tu historial de navegación, tus movimientos y tus contactos, sumados como piezas sueltas de un rompecabezas.
Eso es lo que Anthropic dice que está en juego en su choque con el Departamento de Defensa de Estados Unidos (Pentágono). En un comunicado público, su consejero delegado, Dario Amodei, denunció que la administración Trump, a través del secretario Pete Hegseth, presiona para eliminar dos salvaguardas clave de su modelo Claude: impedir su uso en vigilancia masiva de estadounidenses y en drones armados totalmente autónomos.

Según la compañía, el mecanismo de presión incluye amenazas de “consecuencias enormes”, la expulsión de sus sistemas, y una etiqueta especialmente delicada: ser declarada “riesgo para la cadena de suministro”, un rótulo que, según Anthropic, se reserva para adversarios extranjeros.
Además, la empresa sostiene que se puso sobre la mesa invocar la Ley de Producción de Defensa (una norma para obligar a priorizar suministros críticos) como vía legal para forzar el acceso sin las limitaciones actuales. Amodei fue categórico: afirma que no pueden, “en conciencia”, aceptar ese pedido, aunque dice creer “profundamente” en el rol de la IA para defender democracias.
Del otro lado, el subsecretario de Defensa Emil Michael respondió con un ataque directo: calificó a Amodei de mentiroso con “complejo de Dios”. Y un portavoz del Pentágono negó que busquen vigilancia masiva interna o armas que operen sin intervención humana, y planteó que solo piden usar el modelo para “todos los fines legales”.

Mientras tanto, el conflicto escaló con una visita forzosa de Amodei y su equipo al cuartel general del Departamento. Según Anthropic, allí se les dio un plazo de 48 horas, hasta el viernes, para capitular. El portavoz militar, por su parte, fijó un límite horario: las 17:01 (hora del Este).
La clave está en entender qué son esas “salvaguardas”. En la práctica, son como un interruptor en el cableado de una casa: permite encender la luz en una habitación, pero evita que toda la instalación quede expuesta a un uso peligroso. No impide usar la electricidad. Impide ciertos circuitos.
En vigilancia, Anthropic advierte que la IA potente actúa como una central de armado automático. Toma datos dispersos —movimientos, navegación web, asociaciones— que pueden existir en fuentes públicas y, sin orden judicial, convertirlos en un retrato íntimo. La empresa describe ese engranaje como un cambio cualitativo: ya no es “ver piezas”, es reconstruir la vida completa de alguien a escala.
La analogía es simple: no es lo mismo tener papeles sueltos en un cajón que tener una aspiradora robot que, sola, los clasifica, los une y te arma una carpeta con tu rutina diaria. La tecnología que “agrega” (junta y ordena datos) vuelve la vigilancia más profunda y menos visible.
En armas, el punto de fricción es otro interruptor. Anthropic distingue sistemas parcialmente autónomos (automatizan una parte, con supervisión humana) de armas totalmente autónomas (eligen y atacan objetivos sin intervención humana). La empresa reconoce que estas últimas podrían ser cruciales en el futuro, pero sostiene que los modelos actuales no son lo suficientemente fiables para ese rol.
Anthropic también remarcó su historial con seguridad nacional: afirma haber sido la primera firma de IA puntera en desplegar modelos en redes clasificadas, en Laboratorios Nacionales y en ofrecer modelos personalizados a clientes del área. Claude, dice, ya se usa en análisis de inteligencia, simulación, planificación operativa y operaciones cibernéticas.
Y agrega un dato que busca mostrar coherencia: asegura haber renunciado a cientos de millones de dólares para evitar usos vinculados al Partido Comunista Chino, además de haber desmantelado intentos de ciberataques patrocinados por Pekín que buscaban abusar del sistema.
En el centro de esta disputa hay una oportunidad y una alarma a la vez: si el Estado pide “cualquier uso legal”, pero la ley aún no se adaptó a lo que la IA puede ensamblar, el margen de lo permitido puede volverse un terreno resbaladizo.
Al final, la pelea no trata solo de contratos. Trata de quién controla el interruptor cuando la tecnología deja de ser una herramienta y pasa a ser una central que decide qué se puede conectar.
Si este cableado se define ahora, lo que se enchufe mañana —para proteger o para vigilar— podría sentirse, por primera vez, dentro de la vida cotidiana de cualquiera.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.