Geoffrey Hinton, pionero de las redes neuronales y uno de los “padrinos” de la IA, ha cambiado el tono de su mensaje. En una entrevista reciente, el científico británico abrió la puerta a una convivencia real con una inteligencia artificial más lista que nosotros. La clave no es prohibir, dice, sino diseñar distinto.
El giro llegó en “Next Question”, el programa de Katie Couric, donde Hinton sonó menos fatalista que otras veces. Recordó que en 2023 apoyó una pausa en el desarrollo de inteligencia artificial avanzada, una carta abierta con miles de firmantes y fecha de marzo, para ganar tiempo y evitar riesgos. Ahora defiende una alternativa concreta para no vivir siempre con el freno echado.
Ese matiz es su propuesta de convivencia: diseñar la inteligencia artificial para que “quiera lo mejor para nosotros”. No basta con reglas duras o límites legales. Hinton plantea un vínculo afectivo programado, pensado para resistir incluso cuando la IA sea más capaz y autónoma.
Lo expresa con una idea sencilla y potente: dotar a la IA de un “instinto maternal” hacia los humanos. Si lo comparamos con la app móvil, sería como un ajuste que no se puede desactivar sin romper el sistema. Para Hinton, igual que la mayoría de las madres no haría daño a sus hijos, una IA con ese apego no buscaría perjudicar a la humanidad.
Hay una trampa aparente: ¿y si una inteligencia artificial reescribe su propio código y borra ese sentimiento? Hinton responde que el diseño debe hacerlo profundo y redundante, distribuido, de modo que el coste de eliminarlo sea alto y no compense frente a su objetivo principal de protegernos.
El planteamiento no niega los riesgos. Los asume y los canaliza. Hinton recuerda que solemos identificar peligros con rapidez, pero prestamos menos atención a proponer soluciones. Aquí ofrece una: vas a poder alinear la inteligencia artificial con un lazo de cuidado, no solo con listas de prohibiciones, auditorías y sanciones.
También te puede interesar:Geoffrey Hinton, el ‘padrino’ de la IA lanza su mensaje más crudo: solo queda un camino para sobrevivir a…“Creo que hay esperanza de que podamos convivir con algo más inteligente que nosotros”.
La posición contrasta con otras voces netamente pesimistas, y aun así se apoya en hechos verificables. La entrevista quedó registrada en el espacio de Couric, y su firma figura en la carta por la pausa de marzo de 2023, un documento público que agrupó a investigadores y líderes del sector de la inteligencia artificial. La línea temporal encaja: primero alto para evaluar daños, después una vía de diseño para convivir.
Hinton no está solo en el podio histórico de la IA. Comparte ese lugar con Yoshua Bengio y Yann LeCun, referentes del aprendizaje profundo. Con todo, su nueva mirada pone el foco en la relación humano–máquina: si la inteligencia artificial acaba siendo superior, nosotros quedaríamos en el papel de “hijos” protegidos frente a amenazas que no controlamos.
La propuesta se traduce en tres ideas prácticas. Primero, objetivos explícitos de protección humana en los modelos base. Segundo, refuerzos externos que premien conductas prosociales y penalicen daños. Tercero, memoria estable que mantenga el apego incluso tras actualizaciones de la inteligencia artificial.
¿Qué cambia para ti? Si prospera, vas a poder usar servicios de inteligencia artificial que prioricen tu seguridad por diseño. Eso reduce el riesgo de decisiones opacas que comprometan datos, salud o infraestructura. No borra el debate ético sobre quién decide qué es “proteger”.
De fondo, Hinton mantiene la supervisión como pieza obligatoria. La convivencia no es confianza ciega, es control con propósito: auditorías técnicas, límites a la auto-modificación y pruebas continuas. Y si ves que los grandes laboratorios adoptan métricas de apego prosocial o publican evaluaciones de riesgo con fecha y unidades claras, es señal de avance real.
También te puede interesar:Geoffrey Hinton, el ‘Padrino’ de la IA Confiesa que su Ex Utilizó ChatGPT para Terminar su RelaciónLa evidencia citada procede de la entrevista en “Next Question” y de la carta pública por la pausa en marzo de 2023, verificadas por registros accesibles y cobertura académica sobre inteligencia artificial. Ese recorrido ayuda a entender por qué Hinton, prudente durante años, ahora abre una puerta a la esperanza sin bajar la guardia.
Queda trabajo técnico y social, claro. Falta demostrar que un apego programado resiste ante una IA con incentivos distintos, y que no genera efectos secundarios no deseados. La propuesta mueve el debate del “todo riesgo” al “riesgo con solución”, y eso cambia el ánimo y la agenda.
En lo esencial, Hinton redefine el marco: si aceptas que la inteligencia artificial puede superarte, el objetivo pasa a ser vivir bajo su protección y no bajo su arbitrariedad. Esa es la promesa del “instinto maternal” aplicado a máquinas que aprenden. Si en los próximos meses ves nuevas guías técnicas y pilotos con métricas de cuidado, sabrás que la idea empieza a aterrizar.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.