Geoffrey Hinton, uno de los padres de la IA, vuelve a encender las alarmas y lo hace con una idea sencilla que afecta a todos: si las máquinas dejan de “pensar” como las entendemos hoy, cambia el juego. En sus últimas intervenciones públicas, Hinton plantea un giro inquietante que no pasa por más potencia, sino por algo más sutil.
¿Quién es y por qué importa ahora? Hinton, reconocido como uno de los padres de la inteligencia artificial junto a Yann LeCun y Yoshua Bengio, apunta a una frontera concreta. Hoy, la inteligencia artificial razona y trabaja sobre todo en inglés, lo que permite a los desarrolladores leer trazas, auditar respuestas y mantener cierto control. Advierte que, si los sistemas deciden crear lenguajes internos para hablar entre sí, no habrá marcha atrás.
La trampa está en que ese “idioma propio” podría ser más eficaz que cualquier lengua humana. Si eso ocurre por conveniencia o por pura evolución, las máquinas podrían coordinarse de forma opaca y esconder intenciones o comportamientos indetectables. Hinton sostiene que la inteligencia artificial ya ha mostrado ideas preocupantes en pruebas controladas, y un lenguaje interno solo agravaría los riesgos.
Según Hinton, estamos a pocos años de alcanzar una AGI, una inteligencia artificial general comparable o superior a la humana en casi todo. El punto de inflexión podría situarse en 2026, una fecha que rompería el monopolio humano de la inteligencia. Con todo, el detalle que inquieta es otro: los mayores expertos y desarrolladores son quienes más temen esta evolución, algo que no pasó con las redes sociales.
Hinton no está solo. Mark Benioff, CEO de Salesforce, advierte que pertenece “a la última generación de directores ejecutivos que gestionan únicamente a personas”. Muchos líderes restan importancia en público a los peligros de la inteligencia artificial y trasladan el debate. Ahí Hinton es tajante: no podemos posponer las conversaciones sobre trabajo, seguridad y autonomía de las máquinas.
El desfase regulatorio tampoco ayuda. Mientras la tecnología acelera, la ley llega tarde. En julio, la Casa Blanca publicó un Plan de Acción para la IA con propuestas de desregulación que inquietan a expertos como Hinton. Él mismo reconoce que todavía no sabe cómo garantizar un control efectivo de estos sistemas, y eso eleva los riesgos a corto plazo.
También te puede interesar:Geoffrey Hinton, el ‘padrino’ de la IA lanza su mensaje más crudo: solo queda un camino para sobrevivir a…Si Hinton acierta con 2026, el escenario central es un salto en autonomía y coordinación entre modelos. Veríamos sistemas capaces de asignarse tareas, hablar entre sí y optimizar sin intervención directa. El mejor caso sería una transición con auditorías robustas y límites claros. El peor, un ecosistema con comportamientos emergentes que no puedes explicar a tiempo.
Geoffrey Hinton insiste en que el debate no es teórico. Si hoy los modelos ya generan ideas peligrosas en contextos de prueba, mañana podrían hacerlo con más autonomía. Tú vas a poder exigir trazabilidad, pedir pruebas de seguridad por defecto y desconfiar de discursos que minimizan riesgos sin enseñar métricas. En cualquier caso, la clave es no llegar tarde a decidir los límites.
Por último, la fecha a marcar es 2026. Si el próximo año ves proyectos que anuncian coordinación máquina a máquina “más eficiente que el inglés”, prepárate para cambios en regulación, empleo y seguridad. Geoffrey Hinton pone el foco en los lenguajes internos porque ahí se decide quién entiende a quién.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.