Quizás pensabas que lo de las máquinas creando máquinas era cosa de ciencia ficción de los noventa. Pues parece que nos hemos equivocado de siglo. Jack Clark, uno de los pesos pesados y cofundador de Anthropic, ha soltado una bomba que nos ha dejado a todos mirando de reojo a nuestros ordenadores. Básicamente, afirma que hay una probabilidad altísima de que una Inteligencia Artificial logre desarrollar a su propio sucesor sin que un humano mueva un solo dedo antes de que acabe la década.

Y es que el ritmo de avance no es normal. Lo que nos cuenta Clark a través de una publicación en su blog no es una teoría de barra de bar, sino un análisis de datos puros y duros sobre cómo la IA está automatizando su propio proceso de investigación y desarrollo. Hasta hace nada, entrenar un modelo puntero exigía a cientos de ingenieros picando código, ajustando parámetros y rompiéndose la cabeza. Hoy, ese proceso está empezando a entrar en un ciclo autónomo. Una auténtica locura.

Los números no mienten: la evolución algorítmica es imparable

Si miramos los números, la curva de aprendizaje da vértigo. El benchmark SWE-Bench, que mide la capacidad de resolver problemas de software del mundo real, marcaba apenas un humilde 2% de éxito en 2023 con el modelo Claude 2. Hoy, los modelos más recientes acarician el 94% de precisión. Es decir, han pasado de ser un becario torpe a un desarrollador senior que ni se inmuta ante un fallo de código complejo.

Los números no mienten: la evolución algorítmica es imparable

Por si fuera poco, la organización METR ha puesto sobre la mesa otra métrica que asusta a cualquiera. En 2022, una IA apenas aguantaba resolviendo tareas de forma autónoma equivalentes a unos 30 segundos de trabajo humano experto. Hoy, en pleno 2026, ese umbral se ha disparado hasta las 12 horas ininterrumpidas de trabajo focalizado. Y la previsión es que alcancen las 100 horas antes de comernos las uvas. Así de simple.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas

Evidentemente, este salto cualitativo no ocurre por arte de magia ni suerte. Los sistemas de IA han empezado a gestionar otros sistemas, formando lo que Clark llama inteligentemente «equipos sintéticos». Nos encontramos con una arquitectura donde un modelo hace de director de proyecto, otro asume el rol de ingeniero de software y un tercero actúa como crítico implacable que revisa el trabajo del resto. Replicando a los humanos, pero sin pausas para el café ni fines de semana.

El becario de IA que viene a por tu puesto de trabajo

El sector entero está remando en esta dirección a una velocidad temeraria. Las grandes como OpenAI y la propia Anthropic ya no ocultan que están desarrollando investigadores 100% basados en redes neuronales. De hecho, Sam Altman ya lo dijo hace unos meses con una hoja de ruta bastante agresiva y pública. Su plan pasa por lanzar un «becario de investigación en IA automatizada» para septiembre de este mismo año.

Y la cosa no acaba ahí. Este sistema inicial requerirá el músculo bruto de cientos de miles de GPUs funcionando al unísono en sus centros de datos. Su objetivo final es que, para marzo de 2028, ese becario digital se haya convertido en un «verdadero investigador» capaz de abordar grandes proyectos de principio a fin. Por su parte, la competencia aprieta el acelerador y Anthropic ya trabaja en investigadores de alineación automatizados para asegurar que estas mentes sintéticas no se salgan del carril.

También te puede interesar:El Próximo Modelo de Anthropic podría anunciarse en las próximas semanas
También te puede interesar:Anthropic lanza un plan de Claude para colegios y universidades

El peaje oculto de dejar a la máquina completamente sola

Pero claro, dejar que un programa informático cree a su sustituto tiene consecuencias bastante severas que nadie quiere mirar. Clark identifica tres problemas enormes que se nos vienen encima de forma inminente. El primero es el de la alineación ética y técnica. Si un modelo actual comete un pequeño error lógico y luego ese mismo modelo entrena a la siguiente generación, ese fallo no se corrige, sino que se amplifica exponencialmente. Te haces una idea del desastre potencial.

A ello se le suma el brutal impacto económico, que promete romper el mercado tal y como lo conocemos. La IA multiplica la productividad a niveles absurdos, creando unas desigualdades insalvables entre quienes tienen acceso a esta tecnología hiper-eficiente y quienes siguen tirando de métodos tradicionales. Esto nos lleva directos a la tercera consecuencia: la inevitable fractura social.

El peaje oculto de dejar a la máquina completamente sola

Imagina una economía mundial dominada por superempresas o start-ups que manejan miles de millones en capital pero tienen una plantilla humana que se puede contar con los dedos de una mano. El resto del trabajo intelectual y de desarrollo lo harían estos ejércitos sintéticos. Un panorama que asusta a los sindicatos y hace frotarse las manos a los grandes fondos de inversión. Así de crudo.

La letra pequeña es que todavía no estamos exactamente en ese punto de no retorno. Clark es el primero en admitir que la creatividad «heterodoxa«, esa chispa loca y caótica necesaria para la verdadera investigación científica, sigue siendo el talón de Aquiles de los LLMs actuales. Los modelos iteran genial sobre lo que ya saben, pero no suelen inventar paradigmas nuevos desde cero de forma consistente.

Veremos si el mercado laboral y la sociedad están preparados para absorber este golpe sin tambalearse. Quizás no veamos a esa IA creadora de IAs perfecta mañana por la mañana, pero los datos financieros y de rendimiento nos gritan que el tren ya ha salido de la estación. La pelota está ahora en el tejado de los reguladores para decidir cómo convivir con unas máquinas que ya casi no nos necesitan ni para actualizarse.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios