IA / Inteligencia ArtificialChatGPTGeminiMetaAgentes IAGrammarlyGoogleFitbitNotebookLMAI ModeGrokAnthropicDeep Thinkmicrosoft

El Investigador Español Miguel Aguilera que Hace más Eficiente a la IA, nos Advierte del Verdadero Peligro Oculto

 | agosto 23, 2025 15:00

La conversación sobre la inteligencia artificial suele girar en torno a su potencia, pero el punto sensible está en otro sitio. Miguel Aguilera, investigador del BCAM, advierte que el riesgo real no es la máquina en sí. El foco, dice, está en cómo entendemos lo que hace y por qué lo hace. Falta un detalle clave que cambia el debate.

Si usas WhatsApp, ya has visto cómo el móvil sugiere palabras. La inteligencia artificial calcula probabilidades a partir de grandes bases de datos y completa la frase. ChatGPT funciona parecido, aunque a una escala mucho mayor: la última cifra pública (2020) habla de 175.000 millones de parámetros. Es más que el número de neuronas humanas y se entrena con gran parte de internet y millones de libros. Ese tamaño no resuelve un problema antiguo.

La base son las redes neuronales: herramientas matemáticas que sirven de cerebro

El equipo de Aguilera, junto a las universidades de Sussex y Kyoto y la empresa Araya, ha cambiado el plano donde “se mueven” esos cálculos. Han desarrollado redes neuronales curvas que modifican la geometría tradicional del espacio interno del modelo. ¿Para qué? Para que la memoria sea más rápida y fiable, y la red llegue al patrón correcto sin perderse.

En la práctica, vas a poder acceder a “recuerdos” del sistema con menos rodeos. La geometría más flexible hace que el modelo recupere señales relevantes de forma eficaz, con momentos de inspiración tipo “eureka” parecidos a los del cerebro. Lo más valioso no es solo el rendimiento: la transparencia, más que la potencia bruta, marca el riesgo real. Si entiendes cómo decide la máquina, reduces la famosa “caja negra”.

Ese avance no es solo teoría

Los resultados se publicaron en Nature Communications y apuntan a una mejora de interpretabilidad y seguridad, porque permiten ver por dónde navega la red al recordar un patrón. Aguilera lo resume en una idea sencilla: “El peligro no está en la tecnología, sino en la opacidad”. Con un sistema más legible, puedes detectar objetivos ocultos y cortar comportamientos nocivos antes de que escalen.

Hay otra derivada que te afecta al bolsillo y al planeta. Interactuar con un chatbot como ChatGPT o editar fotos con IA consume, de media, 33 veces más energía que una búsqueda normal en Google. Este coste está empujando a las grandes tecnológicas hacia la energía nuclear: Microsoft anunció en octubre pasado la reapertura de Three Mile Island para alimentar sus sistemas de inteligencia artificial.

También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones

Google ha cerrado acuerdos para recibir electricidad de siete pequeños reactores. Amazon destinará 500 millones de dólares a varios mini reactores.

La transparencia en la IA reduce riesgos y costes en 2025

Si la memoria del modelo es más directa y explicable, pasan tres cosas que puedes notar pronto:

  • Comprendes por qué el sistema elige una respuesta y no otra.
  • Puedes fijar límites y detectar objetivos añadidos sin informar.
  • Mejoras la eficiencia, con menos consumo y menos espera.

Aguilera insiste en que la ingeniería se ha centrado en escalar parámetros, y su propuesta cambia el terreno: ajustar la geometría interna para que la inteligencia artificial recuerde mejor.

Esto no funciona en el vacío. Hace falta publicar cómo se entrenan los modelos, quién decide las metas y qué controles hay cuando los usas en el servicio web, en el cliente en línea o en la versión de escritorio de una app.

El riesgo, según el BCAM, es más social que técnico

Si una empresa diseña objetivos opacos y te presenta una inteligencia artificial sin explicaciones ni auditorías, el problema no es que “piense demasiado”, sino que no puedes ver su lógica. Ahí aparecen sesgos, decisiones inesperadas y costes que nadie ha discutido en público. La solución pasa por hacerla comprensible y controlable por usuarios y sociedad.

¿Qué señales conviene vigilar en los próximos meses? Busca modelos que expliquen sus pasos, informes energéticos por consulta y auditorías externas independientes. Si ves etiquetas de uso responsable, registros de decisiones y opciones claras para desactivar memorias o objetivos, prepárate para mejores resultados y menos sustos. Si, en cambio, todo se vuelve más opaco, el riesgo crece aunque la tecnología mejore.

También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de Europa

En el fondo, la discusión sobre inteligencia artificial no va de magia, va de reglas claras. Redes neuronales curvas para recordar mejor, menos consumo para que el precio no se dispare y más luz sobre cómo decide cada sistema.

Si esa transparencia llega, será mucho más sencillo usar estas herramientas con confianza, sin perder de vista su coste ni sus límites. El próximo hito será ver cómo estas mejoras salen del laboratorio y llegan a los servicios que usas a diario.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram