Cuando firmas un contrato con el Pentágono, sabes perfectamente que las cosas se van a poner muy tensas. Y eso es exactamente lo que le acaba de pasar a la empresa de Sam Altman tras hacerse oficial su entrada en las redes militares de Estados Unidos. Una jugada maestra a nivel financiero, pero que ha provocado un auténtico seísmo ético en sus oficinas de San Francisco. La primera víctima oficial es Caitlin Kalinowski, máxima responsable de robótica, que acaba de pegar un portazo monumental por pura cuestión de principios.

Y es que Kalinowski no era una empleada cualquiera en el escalafón. Hablamos de la ingeniera que lideraba la división técnica de robótica de OpenAI desde el mes de noviembre de 2024. Su dimisión no tiene absolutamente nada que ver con peleas de ego o malos rollos personales en la oficina. De hecho, ha dejado muy claro su máximo respeto por el CEO de la compañía. Sin embargo, en su comunicado público anunciando que dice adiós, ha puesto sobre la mesa dos líneas rojas que considera innegociables.

S mayor miedo gira en torno a la vigilancia masiva de ciudadanos, sin ningún tipo de supervisión judicial. A esa preocupación ha sumado otra aún más inquietante: el desarrollo de máquinas letales totalmente autónomas. Es decir, armamento manejado por algoritmos capaz de apretar el gatillo sin que un ser humano esté directamente al mando. Kalinowski ha decidido cortar por lo sano al ver la dirección de la empresa y lo ha detallado exhaustivamente tanto en su perfil profesional en la red social de LinkedIn como en una actualización reciente en su sitio web personal. Así de contundente.

El hueco que dejó Anthropic lo ocupa ahora OpenAI en los ordenadores militares

Pero claro, para entender todo este culebrón tecnológico tenemos que mirar un poco hacia atrás en el tiempo. Hasta hace muy poco, Anthropic era el ojito derecho del Departamento de Defensa para sus pruebas con modelos masivos de IA. Pero los creadores del famoso LLM Claude decidieron bajarse del barco al autoimponerse unos límites morales brutalmente estrictos. No querían saber absolutamente nada de vigilancia doméstica ni de armamento inteligente, renunciando a esos jugosos presupuestos a cambio de limpiar su reputación pública. Una jugada maestra.

También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa

Como era de esperar, en el multimillonario negocio de la inteligencia artificial corporativa nadie deja un billete sobre la mesa. OpenAI vio el tremendo hueco libre que había quedado y se lanzó de cabeza a por él sin dudarlo. Han cerrado un acuerdo histórico para integrar sus herramientas en una red gubernamental de máxima clasificación de seguridad. Básicamente, a partir de ahora veremos instancias de ChatGPT operando directamente desde los ordenadores del Pentágono. Un salto tremendo.

Para intentar calmar las aguas internas, la cúpula directiva asegura constantemente que este gigantesco contrato militar excluye el rastreo a la población civil. Unas palabras tranquilizadoras que el propio líder ejecutivo de la start-up ha intentado respaldar frente a las quejas continuas. El problema logístico es que, cuando el código ya está subido en servidores militares opacos, la transparencia técnica es prácticamente nula. Al final del día, te tienes que fiar ciegamente.

A ello se le suma la respuesta extremadamente agresiva de la comunidad de usuarios base. Las excusas burocráticas no han convencido a casi nadie y el cabreo digital ha cristalizado rápidamente en forma de boicot organizado. Miles de usuarios anónimos han empezado a desinstalar la aplicación de sus móviles, quejándose abiertamente de estar donando datos gratis para entrenar una máquina de guerra. Solo hace falta pasarse por este hilo concreto sobre la cancelación para medir el pulso real de este movimiento civil. Una locura colectiva.

También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científica

Por este motivo, la espantada de la directora de robótica cobra un valor casi histórico en el sector privado de Silicon Valley. Es la primera vez que un directivo senior de esta famosa start-up abandona el barco citando la militarización del código como detonante principal. La ejecutiva no ha querido confirmar si habrá más fugas masivas de talento técnico, escudándose celosamente en los acuerdos de confidencialidad de recursos humanos. Pero la brecha en el casco ya está hecha. Cuando una figura tan pesada de la industria dimite haciendo tanto ruido mediático, suele indicar que las tensiones internas son completamente insoportables.

La carrera armamentística impulsada por algoritmos ya es imparable

Si miramos los datos con perspectiva, esta crisis reputacional sitúa a la empresa creadora de GPT-4 contra las cuerdas frente a sus inversores. Tienen que demostrar con datos verificables que sus muros éticos son sólidos, y no una simple cortina de humo fabricada para vender titulares. El debate global ya no va sobre si la IA nos robará los empleos de oficina o si hará las redacciones del instituto a nuestros hijos. Ahora estamos discutiendo sobre software de última generación inyectado directamente en el corazón de la logística bélica internacional. Son palabras mayores.

Por contrapartida, la radical decisión de Anthropic de mantenerse al margen les ha bañado en oro de cara a la opinión pública masiva. Ahora mismo disfrutan plácidamente de la etiqueta de ser los «chicos buenos» e insobornables de la incipiente industria del aprendizaje automático. El inconveniente obvio es que decirle que no a las carteras infinitas del ejército estadounidense puede pasarte una factura letal. Entrenar a estos inmensos monstruos virtuales requiere inyecciones constantes de capital brutal, y a largo plazo, el dinero es quien manda.

También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científica
También te puede interesar:OpenAI Estrena Nuevo Logotipo

Naturalmente, este inmenso vacío de poder legal empuja al debate sobre si los propios ingenieros deben autorregularse o si hace falta una ley dura. Y aquí es justo donde las instituciones de Europa intentan sacar un poco de músculo frente al dominio asiático y americano. Aunque vamos años por detrás en pura innovación de hardware, el continente europeo ya ha arrancado un marco legislativo que vigila muy de cerca la fina línea militar. Un control necesario.

La militarización de estos sistemas computacionales dejó de ser una advertencia de pesimistas; ocurre en vivo y en directo delante de nuestros ojos. La pelota descansa ahora en el tejado de OpenAI, quienes tendrán que torear un previsible motín silencioso entre sus propios programadores. Habrá que estar alerta para confirmar si el Pentágono realmente cumple su palabra o si, una vez abierta la caja de Pandora algorítmica, será imposible apagarla.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí