Según reveló WIRED, el Departamento de Justicia defendió ante un tribunal federal que no violó la Primera Enmienda de Anthropic al etiquetar a la empresa como un “riesgo para la cadena de suministro”. Ese sello puede cerrar la puerta a contratos de defensa y costarle a la compañía miles de millones de dólares este año.

El hallazgo clave del caso no gira solo en torno a un contrato. Gira en torno a quién controla el interruptor de una IA cuando ya está integrada en sistemas del gobierno. Anthropic sostiene que el Pentágono se extralimitó y que sus modelos Claude no deben usarse para vigilancia masiva ni armas autónomas, por su falta de fiabilidad. El gobierno responde que esa postura vuelve a la empresa un contratista poco confiable.

Anthropic pide mientras se resuelve el litigio, poder reanudar sus actividades

Además, una jueza federal de San Francisco debe decidir si concede una medida cautelar, una orden temporal de emergencia, para que Anthropic pueda reanudar su actividad mientras avanza el litigio. El Departamento de Justicia insiste en que las pérdidas económicas, por grandes que sean, no equivalen a un perjuicio irreparable en términos legales.

La discusión técnica sería El Pentágono ve a la IA como parte del cableado central: si quien instaló ese sistema puede limitarlo, modificarlo o apagarlo, entonces no está frente a una simple herramienta, sino ante un mecanismo con poder sobre toda la instalación.

También te puede interesar:Claude Puede Ver Tu Pantalla y Actuar Solo, Así Afecta a Tu Privacidad

Ahí aparece la analogía que explica el conflicto. Nadie quiere que, en medio de una tormenta, el proveedor de electricidad decida qué habitaciones pueden tener luz y cuáles no. Para el gobierno, las condiciones que Anthropic quería imponer sobre el uso de sus modelos funcionan como ese tipo de interruptor externo.

Anthropic, en cambio, plantea otra imagen. La empresa dice que está poniendo fusibles de seguridad, no saboteando la casa. Es decir, intenta impedir usos que considera peligrosos o poco fiables, como la vigilancia masiva o las armas autónomas. Pero el Pentágono sospecha que esos límites podrían convertirse en una pieza capaz de alterar operaciones sensibles.

La pieza clave de un sistema que no se cambia de un día para otro

El Departamento de Defensa incluso admitió algo revelador: no puede prescindir de Anthropic de inmediato. Hoy, su modelo es el único autorizado en sistemas clasificados, en medio de operaciones de combate activas. Uno de sus usos más importantes está integrado en software de análisis de datos de Palantir.

Trump ordena a Agencias del Gobierno prescindir de los servicios de Antrhopic

Sin embargo, el gobierno ya trabaja para reemplazar esas herramientas por alternativas de Google, OpenAI y xAI en los próximos meses. Ese dato muestra un doble movimiento. Por un lado, considera a Anthropic un riesgo. Por otro, reconoce que todavía depende de esa tecnología en tareas críticas.

También te puede interesar:Claude Puede Ver Tu Pantalla y Actuar Solo, Así Afecta a Tu Privacidad
También te puede interesar:Claude Code y Cowork se Actualizan con Dispatch: Permite que tu Ordenador Ejecute Tareas Solo

Ese engranaje explica por qué el caso importa más allá de una sola empresa. No se discute solo si una IA responde bien. Se discute si un proveedor puede fijar reglas sobre el uso de un sistema una vez que ese sistema entra al corazón operativo del Estado.

También hay una señal política y legal. Diversas organizaciones, entre ellas investigadores de IA, Microsoft, sindicatos y exlíderes militares, presentaron escritos de apoyo a Anthropic. Ningún grupo relevante hizo lo mismo a favor del gobierno. Los expertos legales advierten que los tribunales suelen dar un peso especial a los argumentos de seguridad nacional.

Una disputa que puede redefinir la relación con la IA

Anthropic tiene plazo hasta el viernes para responder. Y lo que decida la jueza puede convertirse en una referencia para todo el sector: si la IA será una herramienta alquilada con condiciones o una infraestructura que, una vez instalada, queda por completo en manos del Estado.

La oportunidad, detrás del choque, es más amplia. Obliga a revisar quién sostiene el interruptor cuando una tecnología deja de ser novedad y pasa a ser parte del sistema eléctrico de la vida real.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios