Esta semana, Darío Amodei, director ejecutivo y cofundador de Anthropic (la empresa detrás de Claude), apuntó directo contra OpenAI (creadora de ChatGPT) por su acuerdo con el Departamento de Defensa de Estados Unidos. El hallazgo, puertas adentro, no fue técnico: fue político y ético. Amodei acusa a su rival de difundir “mentiras descaradas” sobre qué incluye y qué implica ese pacto.

Según The Information, que tuvo acceso a una nota interna de Amodei a los empleados, la ruptura ocurrió porque Anthropic no aceptó un mecanismo sin límites claros. OpenAI, en cambio, ocupó el lugar con rapidez. Y esa velocidad, para Amodei, es una pieza clave del problema.

OpenAI pacta con Departamento de Defensa de Estados Unidos

Amodei justificó la retirada con una línea roja concreta: su modelo no debía usarse en armas autónomas (sistemas que deciden y actúan sin un humano) ni en vigilancia ciudadana a gran escala (monitoreo masivo de población). En su memorando sostiene que el Departamento de Defensa insistió precisamente en capacidades cercanas a esos dos puntos, y que por eso Anthropic cortó las negociaciones.

Del otro lado, Sam Altman defendió el acuerdo de OpenAI con un argumento breve: lo hacen “por seguridad nacional”. Amodei desconfía de esa promesa. Y, de acuerdo con el texto citado por The Information, llega a describir el acercamiento entre OpenAI y el ejército como un “teatro de seguridad”.

La tensión no nació hoy. Ya se había escenificado en la Cumbre del Impacto de la IA en Nueva Delhi, donde Altman y Amodei evitaron darse la mano en la foto de familia. Esta vez, el cableado quedó a la vista: dos empresas líderes, dos lecturas opuestas sobre qué significa “proteger” cuando la herramienta es una IA.

En la práctica, Anthropic quería un contrato con fusibles: reglas verificables, límites explícitos y consecuencias si se cruzaban. Su postura fue pedir que Claude no quedara “cableado” a usos que eliminen al humano de la cadena de decisión o que conviertan a la vigilancia en una tubería permanente de datos.

OpenAI, en cambio, sostiene que esas dos áreas están protegidas y quedan fuera del acuerdo. Amodei no compra esa separación. En su nota interna, acusa a Altman de “presentarse falsamente como un pacificador y negociador”. Y remarca algo hacia adentro: no hay arrepentimiento por haberse retirado.

¿Qué cambia para el usuario común?

Se inicia una competencia por confianza no solo por rendimiento

Este episodio revela una oportunidad y un riesgo al mismo tiempo. La oportunidad: que las empresas compitan también por confianza, no solo por rendimiento. El riesgo: que el debate quede en frases (“seguridad nacional”) y no en garantías operativas, esas que funcionan como cerraduras reales.

Amodei incluso vincula la reacción pública con un dato de mercado: asegura que Claude llegó al puesto número 2 en la App Store. Para él, es un indicador de que parte de la gente premia la prudencia.

El punto ciego: las garantías

El punto ciego: las garantías

Mientras Anthropic y OpenAI se alejan, la discusión deja una lección sencilla: en IA, el verdadero producto no es solo la respuesta inmediata. Es el conjunto de frenos, fusibles y reglas que evitan que el mismo motor sirva para tareas incompatibles con la vida civil.

Y si esos frenos se vuelven visibles y exigibles, la tecnología puede parecer menos misteriosa y más parecida a lo que todos entendemos: una casa segura depende, ante todo, de su interruptor central.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí