Una startup de Palo Alto dice que ha dado el siguiente paso: una arquitectura que permite a una inteligencia artificial aprender con el tiempo como lo hace un cerebro. Se llama Baby Dragon Hatchling (BDH) y llega de la mano de Pathway.
Mientras la inteligencia artificial actual ve, habla y hasta escribe poesía, aún se queda congelada tras el entrenamiento. Zuzanna Stamirowska, al frente de Pathway, sitúa el problema en los grandes modelos de lenguaje, que aprenden una vez y poco más.
Hay una paradoja que conviene tener presente: cuanto más “listos” son los modelos, menos se parecen al cerebro humano, que aprende y reajusta su comprensión de forma continua. Stamirowska lo resume con un dardo a los LLM: Los LLM despiertan cada día con el mismo estado de memoria; no aprenden de forma consistente con el tiempo, dice.
Hoy, casi todas las implementaciones combinan un LLM estático con acceso a una base de datos externa, algo funcional pero limitado para un razonamiento realmente contextualizado. Adrian Kosowski, director científico de la compañía, subraya esa brecha entre sistemas que procesan datos nuevos y modelos que no convierten eso en experiencia. Con BDH, vas a poder acercar ambos mundos y reducir latencias, costes y errores.
¿Cuál es el truco? BDH traduce a código el aprendizaje hebbiano, la regla neurocientífica de “las neuronas que se activan juntas, se conectan”. Cada neurona artificial opera de forma local y refuerza enlaces que se coactivan a menudo.
Con el tiempo, esas conexiones forman circuitos que representan ideas aprendidas y, El sistema se mantiene estable mientras crece. Esa red “sin escala” favorece un comportamiento predecible y escalable en la práctica.
También te puede interesar:Grok de X.com añade capacidad reconocimiento de imágenes para web y móvilLa clave operativa está en las activaciones escasas y más interpretables. BDH promueve que solo una fracción de neuronas “salte” a la vez, y eso permite identificar qué neuronas representan cada concepto, lo que llaman monosemanticidad. Con esa propiedad, vas a poder auditar decisiones y trazar por qué el sistema llegó a una conclusión, algo que los reguladores piden con insistencia para la inteligencia artificial de uso público.
Si lo comparas con un Transformer típico, el contraste es nítido. Un modelo como GPT-2 (2019) con 1,5 mil millones de parámetros requiere reentrenos periódicos para incorporar novedades. BDH persigue la generalización continua y el aprendizaje por experiencia, sin sincronizaciones externas.
Jan Chorowski, CTO, defiende que se recupera la regla básica: reglas locales y nada más. La ventaja en escalado aún no está probada frente a arquitecturas más recientes.
El equipo detrás del proyecto suma credenciales potentes: experiencia en mecanismos de atención, predicción y ciencia de datos a gran escala. Pathway ha cerrado 10 millones de dólares en una ronda inicial liderada por TQ Ventures, y entre sus business angels figura Lukasz Kaiser, coautor del paper del Transformer y colaborador de OpenAI. Con este respaldo, te explicamos, vas a poder esperar pruebas más duras y comparables en los próximos meses.
Las primeras aplicaciones no se quedan en el laboratorio. La tecnología ya se usa en la OTAN para análisis social y operativo en tiempo real, y en La Poste (Francia) para rutas de entrega y logística. Ahí es donde la inteligencia artificial adaptativa muestra sentido: menos llamadas a bases externas, menos latencia y decisiones más ajustadas al contexto. La compañía sostiene que los datos de clientes piloto confirman esa mejora en carga y coste.
Queda terreno por recorrer y hay críticas. R. Ravi, desde Carnegie Mellon, recuerda que inspirarse en el cerebro ayuda, pero la biología no se copia al detalle y aún desconocemos el vínculo estructura-función. También avisa de que la explicabilidad debería ser requisito para uso público, y ningún modelo lo cumple del todo, ni siquiera BDH. Sid Ghatak ve un hito científico, aunque pide paciencia: todavía falta demostrar el potencial a largo plazo y la seguridad real.
El debate de seguridad no es menor. BDH busca atajar preocupaciones como la “Fábrica de Clips”, modelando sistemas que se adaptan sin perder control. No es un sistema autónomo y seguro por sí mismo, y su capacidad de evolucionar podría chocar con marcos regulatorios actuales.
En paralelo, el enfoque encaja bien con hardware emergente en el que la memoria se integra en malla con el cómputo, algo que, unido a activaciones escasas, puede recortar consumo y costes.
Si BDH logra su objetivo, un sistema que aprende con la experiencia y no se congela tras el entrenamiento podría abrir una etapa distinta: máquinas que piensan más como el cerebro y menos como una base de datos elegante. Hasta que no demuestre escalabilidad, seguridad y ventaja sostenida, conviene mantener la cautela. Para ti, el premio es grande: una inteligencia artificial útil, auditable y más barata de operar a escala.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.