¿Hasta qué punto están dispuestas las grandes tecnológicas a sacrificar sus límites éticos por un contrato militar jugoso? El Wall Street Journal informa de un movimiento tectónico en el cruce entre el sector de defensa y la inteligencia artificial generativa. Resulta que Google acaba de abrirle las puertas de su tecnología de IA al Departamento de Defensa de Estados Unidos. Y no estamos hablando de un piloto inofensivo para redactar correos, sino de un acceso total para operar directamente dentro de las redes clasificadas del ejército.
Un pase VIP que permite, en la práctica, utilizar estos modelos para cualquier fin que ampare la legalidad vigente.
Pero para entender cómo hemos llegado a este punto de fricción corporativa, hay que retroceder unos meses y mirar a otro protagonista clave. Hablamos de Anthropic, la start-up responsable de los potentes modelos Claude. El Pentágono llamó primero a su puerta buscando un buffet libre de inferencia algorítmica sin ningún tipo de ataduras. Y la respuesta que se encontraron fue un «no» rotundo.

El motivo es simple: Anthropic quería imponer salvaguardas innegociables en su contrato. Sus directivos se negaban tajantemente a que sus redes neuronales acabaran procesando datos para armas autónomas o para sistemas de vigilancia masiva doméstica. Unas líneas rojas éticas que, al parecer, resultaban demasiado incómodas para la hoja de ruta del ejército estadounidense.
También te puede interesar:Google expande su herramienta de prueba virtual con IA para incluir vestidosLo que pasó a continuación roza el surrealismo en el mundo de los negocios. Ante su negativa a pasar por el aro, el Departamento de Defensa decidió etiquetar formalmente a Anthropic como un «riesgo para la cadena de suministro». Una auténtica locura.
Ojo al dato, porque es una designación extremadamente dura. Es una etiqueta negra que el gobierno estadounidense normalmente guarda bajo llave para usarla exclusivamente contra adversarios extranjeros, empresas de espionaje internacional o fabricantes de hardware que amenazan la seguridad nacional.

Como era de esperar, este choque frontal no se quedó en un simple intercambio de correos tensos. Ahora mismo, Anthropic y el Pentágono están inmersos en un litigio legal de alto voltaje. De momento, la start-up ha conseguido que un juez federal le conceda una orden judicial preliminar. Esta medida bloquea temporalmente esa polémica designación de riesgo militar mientras los tribunales deciden quién tiene la razón.
El hueco perfecto para Google (y para OpenAI)
Si rascamos un poco en los datos del sector, está claro que los escrúpulos corporativos duran lo que tarda en aparecer una licitación millonaria. Tras el plante histórico de Anthropic, otros gigantes no dudaron ni un segundo en lanzarse a por el hueco que dejaron. OpenAI y xAI ya han firmado acuerdos similares con el Pentágono en los últimos meses.
También te puede interesar:Google expande su herramienta de prueba virtual con IA para incluir vestidos
A ello se le suma ahora el titán de Mountain View. Google se ha coronado como la tercera gran empresa de IA dispuesta a capitalizar el vacío comercial que dejó Anthropic, priorizando el despliegue militar de sus LLM por encima de los debates morales sobre su uso.
La letra pequeña del contrato de Google es, cuanto menos, un poco ambigua. Desde la empresa aseguran que el acuerdo incluye un lenguaje donde manifiestan que «no pretenden» que su inteligencia artificial se utilice en armamento autónomo letal ni en vigilancia interna ciudadana.
Pero aquí viene la trampa. Nadie tiene absolutamente nada claro si esas supuestas limitaciones insertadas en el texto son realmente vinculantes a nivel legal. Es decir, no sabemos si el Pentágono puede saltárselas cuando le apetezca sin enfrentar un corte radical del servicio o una penalización económica. Las palabras vacías abundan, especialmente cuando hablamos de entornos de defensa estrictamente clasificados.
Casi mil empleados contra la dirección
Y claro, los propios ingenieros y desarrolladores de la compañía no son ingenuos. Saben perfectamente qué significa abrir la caja de Pandora de las redes militares. Por eso, alrededor de 950 empleados de Google han firmado una carta abierta para exigirle explicaciones inmediatas a su propia directiva.
Piden algo muy concreto: que Google tenga la valentía empresarial de imitar la postura firme de Anthropic. Quieren que la compañía imponga unas barreras técnicas reales y auditables antes de entregarle su tecnología pipeline al Departamento de Defensa. Muchos de estos programadores no quieren que el código que pican cada día acabe siendo el motor central de un escenario propio de la ciencia ficción militar.

Por el momento, la estrategia de relaciones públicas brilla por su ausencia. Desde la cúpula directiva de Google han optado por el silencio más absoluto y no han respondido a ninguna de las decenas de solicitudes de prensa para aclarar esta polémica. Ni un solo comentario oficial para calmar las aguas.
Tocará esperar para ver si la inmensa presión interna consigue frenar, o al menos arrojar algo de luz, sobre un acuerdo de defensa que ya está firmado y presuntamente operativo. Lo que nos queda dolorosamente claro es que la carrera de la inteligencia artificial ya no solo va de ver quién lanza el modelo con mejor benchmark. Ahora el campo de batalla es físico y literal. La pelota está en el tejado de las plantillas tecnológicas para decidir qué futuro están dispuestas a tolerar.

Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.











