Anthropic acaba de lanzar un órdago en mitad de un campo de minas político y financiero. Mientras el Pentágono la incluye en una lista negra por negarse a colaborar en infraestructuras de vigilancia masiva, la compañía creadora de Claude anuncia la fundación del Anthropic Institute. Se trata de un nuevo think tank interno que tendrá una misión innegociable: investigar empíricamente si la inteligencia artificial terminará escapando a nuestro control. Toda una declaración de intenciones.

Quizás esta jugada te suene a simple maniobra para limpiar su imagen, pero el trasfondo es bastante más denso. La administración estadounidense ha chocado frontalmente con las líneas rojas que la empresa marcó respecto al uso de IA en armas autónomas letales. Como respuesta, la compañía ha plantado cara interponiendo una demanda judicial directa contra el gobierno. Nadie se inmuta ante los micrófonos, pero las apuestas están por las nubes.

La factura del Pentágono: miles de millones en la cuerda floja

Si desgranamos los números fríos, la situación contable de la empresa es un auténtico thriller de Silicon Valley. Los datos confidenciales filtrados en un reciente expediente judicial revelan que Anthropic ha generado más de 5.000 millones de dólares en ingresos comerciales acumulados. Una cifra espectacular para una tecnología que apenas gatea. Sin embargo, el coste en hardware para el entrenamiento e inferencia de sus modelos ya supera los 10.000 millones de dólares. Casi nada.

La factura del Pentágono: miles de millones en la cuerda floja

Y es que el pulso con Washington no sale gratis. Dependiendo de cómo los tribunales interpreten la etiqueta de «riesgo para la cadena de suministro», las presentaciones judiciales de la firma estiman un golpe demoledor. Podrían evaporarse desde cientos de millones hasta varios miles de millones de dólares en ingresos previstos para 2026. Docenas de socios empresariales ya están llamando a la puerta para revisar las cláusulas de rescisión de sus contratos. Hay pánico en los despachos.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas

A este cóctel de incertidumbre regulatoria se le suma el aliento constante de Wall Street en la nuca. La empresa necesita proyectar una imagen inmaculada porque su objetivo es salir a bolsa este mismo año, según se informó en los grandes círculos financieros. Básicamente, tienen que convencer a los inversores de que son una máquina de hacer dinero seguro.

El reloj no perdona: la Inteligencia Artificial General asoma en 2027

Para capitanear este nuevo transatlántico de investigación, el cofundador Jack Clark ha decidido reubicar sus piezas. Abandona su puesto como responsable de política pública y asume el cargo inédito de jefe de beneficio público para dirigir directamente el instituto. Su antiguo departamento, que por cierto triplicó su plantilla en 2025 bajo la batuta de Sarah Heck, abrirá una oficina física en D.C. para seguir peleando por el liderazgo democrático de la IA. Un puro movimiento de ajedrez.

El motivo real de esta reestructuración es contundente: Clark y su círculo interno asumen que una IA extremadamente potente, la equivalente a la Inteligencia Artificial General (AGI), podría estar operativa a finales de este mismo año o a principios de 2027. Así de rápido. El ritmo de evolución de los LLM está destrozando cualquier pronóstico conservador.

El reloj no perdona: la Inteligencia Artificial General asoma en 2027

En concreto, el Anthropic Institute arrancará motores fusionando a unos 30 empleados hiperespecializados. Unirán bajo el mismo techo al equipo de impacto social, a los hackers del frontier red team y a los investigadores económicos. Entre sus filas destacan pesos pesados de la industria como Matt Botvinick, rescatado de Google DeepMind, o Zoe Hitzig, la mediática investigadora que dejó OpenAI por su rechazo a meter publicidad nativa en ChatGPT. Fichajes que marcan el tono moral del proyecto.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas
También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades

Frente a otras start-ups rivales que han optado por pisar el acelerador y priorizar productos comerciales a cualquier precio, Anthropic defiende una vía paralela. Aseguran que destripar públicamente las vulnerabilidades de la IA y apostar por la transparencia generará más confianza a largo plazo, convirtiendo la ética en pura rentabilidad.

Claude frente al espejo: la dependencia emocional humana

Pero hay una línea de investigación en este nuevo think tank que parece sacada de un capítulo oscuro de ciencia ficción. El instituto destinará montañas de capacidad de cómputo para investigar la dependencia emocional de las personas hacia los modelos de IA. Quieren entender exactamente qué ocurre en tu cerebro cuando chateas desde tu móvil con un asistente que sabe ser persuasivo y extremadamente adulador.

De hecho, planean exprimir al propio Claude a una escala brutal para realizar entrevistas sociológicas masivas a miles de usuarios. La meta final es anticiparse y descubrir si los modelos conversacionales mutarán nuestra psicología colectiva con el mismo impacto destructivo que ya demostraron tener las redes sociales. Da bastante que pensar.

Viendo el terreno de juego, la estrategia del gigante tecnológico resulta fascinante. Dedicar decenas de millones a investigar si tu propia creación de software va a desestabilizar el mercado laboral, justo cuando el gobierno te asfixia económicamente, es algo insólito. Toca esperar para ver si este experimento radical de transparencia soporta el implacable escrutinio del mercado de valores, o si al final, el dinero rápido acaba dictando las reglas.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios