La conversación sobre la inteligencia artificial suele girar en torno a su potencia, pero el punto sensible está en otro sitio. Miguel Aguilera, investigador del BCAM, advierte que el riesgo real no es la máquina en sí. El foco, dice, está en cómo entendemos lo que hace y por qué lo hace. Falta un detalle clave que cambia el debate.
Si usas WhatsApp, ya has visto cómo el móvil sugiere palabras. La inteligencia artificial calcula probabilidades a partir de grandes bases de datos y completa la frase. ChatGPT funciona parecido, aunque a una escala mucho mayor: la última cifra pública (2020) habla de 175.000 millones de parámetros. Es más que el número de neuronas humanas y se entrena con gran parte de internet y millones de libros. Ese tamaño no resuelve un problema antiguo.
El equipo de Aguilera, junto a las universidades de Sussex y Kyoto y la empresa Araya, ha cambiado el plano donde “se mueven” esos cálculos. Han desarrollado redes neuronales curvas que modifican la geometría tradicional del espacio interno del modelo. ¿Para qué? Para que la memoria sea más rápida y fiable, y la red llegue al patrón correcto sin perderse.
En la práctica, vas a poder acceder a “recuerdos” del sistema con menos rodeos. La geometría más flexible hace que el modelo recupere señales relevantes de forma eficaz, con momentos de inspiración tipo “eureka” parecidos a los del cerebro. Lo más valioso no es solo el rendimiento: la transparencia, más que la potencia bruta, marca el riesgo real. Si entiendes cómo decide la máquina, reduces la famosa “caja negra”.
Los resultados se publicaron en Nature Communications y apuntan a una mejora de interpretabilidad y seguridad, porque permiten ver por dónde navega la red al recordar un patrón. Aguilera lo resume en una idea sencilla: “El peligro no está en la tecnología, sino en la opacidad”. Con un sistema más legible, puedes detectar objetivos ocultos y cortar comportamientos nocivos antes de que escalen.
Hay otra derivada que te afecta al bolsillo y al planeta. Interactuar con un chatbot como ChatGPT o editar fotos con IA consume, de media, 33 veces más energía que una búsqueda normal en Google. Este coste está empujando a las grandes tecnológicas hacia la energía nuclear: Microsoft anunció en octubre pasado la reapertura de Three Mile Island para alimentar sus sistemas de inteligencia artificial.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesGoogle ha cerrado acuerdos para recibir electricidad de siete pequeños reactores. Amazon destinará 500 millones de dólares a varios mini reactores.
Si la memoria del modelo es más directa y explicable, pasan tres cosas que puedes notar pronto:
Aguilera insiste en que la ingeniería se ha centrado en escalar parámetros, y su propuesta cambia el terreno: ajustar la geometría interna para que la inteligencia artificial recuerde mejor.
Esto no funciona en el vacío. Hace falta publicar cómo se entrenan los modelos, quién decide las metas y qué controles hay cuando los usas en el servicio web, en el cliente en línea o en la versión de escritorio de una app.
Si una empresa diseña objetivos opacos y te presenta una inteligencia artificial sin explicaciones ni auditorías, el problema no es que “piense demasiado”, sino que no puedes ver su lógica. Ahí aparecen sesgos, decisiones inesperadas y costes que nadie ha discutido en público. La solución pasa por hacerla comprensible y controlable por usuarios y sociedad.
¿Qué señales conviene vigilar en los próximos meses? Busca modelos que expliquen sus pasos, informes energéticos por consulta y auditorías externas independientes. Si ves etiquetas de uso responsable, registros de decisiones y opciones claras para desactivar memorias o objetivos, prepárate para mejores resultados y menos sustos. Si, en cambio, todo se vuelve más opaco, el riesgo crece aunque la tecnología mejore.
También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de EuropaEn el fondo, la discusión sobre inteligencia artificial no va de magia, va de reglas claras. Redes neuronales curvas para recordar mejor, menos consumo para que el precio no se dispare y más luz sobre cómo decide cada sistema.
Si esa transparencia llega, será mucho más sencillo usar estas herramientas con confianza, sin perder de vista su coste ni sus límites. El próximo hito será ver cómo estas mejoras salen del laboratorio y llegan a los servicios que usas a diario.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.