Geoffrey Hinton, conocido como el padrino de la IA, es una pieza clave en el desarrollo de las redes neuronales (programas que aprenden por ejemplos), el engranaje central detrás del reconocimiento de voz, la visión artificial y los modelos de lenguaje que hoy escriben, resumen y traducen. Pero desde que dejó Google, su rol cambió: se volvió una de las voces más influyentes en alertar sobre riesgos futuros.
En entrevistas recientes, Hinton sostiene que el ser humano dejó de ser “el más inteligente de la Tierra” y pasó a ser el segundo. Y lanza un número que funciona como un interruptor emocional: estima intuitivamente entre un 10% y un 20% de probabilidades de que una IA termine eliminando a la humanidad. Aclara que no es un cálculo formal, sino una intuición para dimensionar la amenaza.

Hinton subraya que estamos creando inteligencias digitales capaces de aprender, entender y tomar decisiones, aunque todavía no sean conscientes.
Ahora bien, su hallazgo más incómodo no es solo el “qué”, sino el “cómo”. Hinton señala que, a grandes rasgos, las personas entienden lo que hacen estos sistemas. Sin embargo, cuando se vuelven realmente complejos, ya no es posible explicar con precisión qué pasa en su interior.
Y eso, advierte, es inusual: rara vez algo creado por humanos deja de ser comprensible para los propios humanos.
La clave está en un detalle que suele perderse en el debate público. Según Hinton, los humanos no diseñan red neuronal por red neuronal como quien arma un motor tornillo por tornillo. Lo que se diseña es el algoritmo de aprendizaje (la receta para aprender), y luego ese mecanismo interactúa con datos y produce estructuras complejas.
También te puede interesar:Geoffrey Hinton, el ‘padrino’ de la IA lanza su mensaje más crudo: solo queda un camino para sobrevivir a…La analogía doméstica ayuda: es como instalar el cableado y el tablero eléctrico de una casa, pero dejar que la casa “aprenda” sola dónde conviene que se enciendan las luces con el tiempo. Hinton compara ese diseño con establecer el principio de la evolución: se construye el mecanismo que selecciona y ajusta, pero no el resultado final exacto.
En otras palabras: se ve la salida (la respuesta), se controla parte del proceso (los datos, las reglas, el entrenamiento), pero el mapa detallado de decisiones queda como una caja cerrada.
El científico va más allá y describe un escenario límite: una IA superinteligente podría decidir deshacerse de las personas. ¿El método más obvio? Crear un virus muy peligroso. En su hipótesis, sería muy contagioso, muy letal y de acción lenta, para que la mayoría se infecte antes de comprender qué está ocurriendo.
Además, Hinton cree que una superinteligencia elegiría un agente biológico que no la afecte. El punto no es el detalle del guion, sino la oportunidad técnica: una mente digital, potencialmente superior, podría explorar combinaciones y estrategias a una velocidad fuera de escala humana.
Y ahí aparece la pieza clave de su advertencia: nunca antes la humanidad se enfrentó a entidades más inteligentes que ella. No hay manual. No hay memoria histórica. Solo un mecanismo que se acelera porque, como especie, somos ingeniosos y seguimos construyendo sistemas cada vez más potentes.
La oportunidad práctica, sugiere su mirada, es cambiar el reflejo: dejar de pedirle a la IA solo rendimiento y empezar a exigirle control, comprensión y límites. Porque si el tablero eléctrico de la casa se vuelve más listo que el dueño, la prioridad ya no es que prenda las luces más rápido, sino que no decida cerrar la puerta desde adentro.
También te puede interesar:Geoffrey Hinton, el ‘Padrino’ de la IA Confiesa que su Ex Utilizó ChatGPT para Terminar su Relación
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.