SlackbotNano BananaBaby Dragon Hatchling (BDH)IA / Inteligencia ArtificialAgentes IAOpenAISpotifyChatGPTVeo 3.1appleGemini EnterpriseEurecatFigure AINvidiaJony Ive

Delimitando la Frontera entre lo Humano y las Máquinas: la IA que Podrá Pensar como Nosotros

 | octubre 14, 2025 00:59

Una startup de Palo Alto dice que ha dado el siguiente paso: una arquitectura que permite a una inteligencia artificial aprender con el tiempo como lo hace un cerebro. Se llama Baby Dragon Hatchling (BDH) y llega de la mano de Pathway.

Stratup de Pathway

Mientras la inteligencia artificial actual ve, habla y hasta escribe poesía, aún se queda congelada tras el entrenamiento. Zuzanna Stamirowska, al frente de Pathway, sitúa el problema en los grandes modelos de lenguaje, que aprenden una vez y poco más.

Hay una paradoja que conviene tener presente: cuanto más “listos” son los modelos, menos se parecen al cerebro humano, que aprende y reajusta su comprensión de forma continua. Stamirowska lo resume con un dardo a los LLM: Los LLM despiertan cada día con el mismo estado de memoria; no aprenden de forma consistente con el tiempo, dice.

Hoy, casi todas las implementaciones combinan un LLM estático con acceso a una base de datos externa, algo funcional pero limitado para un razonamiento realmente contextualizado. Adrian Kosowski, director científico de la compañía, subraya esa brecha entre sistemas que procesan datos nuevos y modelos que no convierten eso en experiencia. Con BDH, vas a poder acercar ambos mundos y reducir latencias, costes y errores.

¿Cuál es el truco? BDH traduce a código el aprendizaje hebbiano, la regla neurocientífica de “las neuronas que se activan juntas, se conectan”. Cada neurona artificial opera de forma local y refuerza enlaces que se coactivan a menudo.

Con el tiempo, esas conexiones forman circuitos que representan ideas aprendidas y, El sistema se mantiene estable mientras crece. Esa red “sin escala” favorece un comportamiento predecible y escalable en la práctica.

También te puede interesar:Grok de X.com añade capacidad reconocimiento de imágenes para web y móvil

Cómo la inteligencia artificial BDH aprende de forma continua y qué cambia frente a Transformers

La clave operativa está en las activaciones escasas y más interpretables. BDH promueve que solo una fracción de neuronas “salte” a la vez, y eso permite identificar qué neuronas representan cada concepto, lo que llaman monosemanticidad. Con esa propiedad, vas a poder auditar decisiones y trazar por qué el sistema llegó a una conclusión, algo que los reguladores piden con insistencia para la inteligencia artificial de uso público.

 la inteligencia artificial BDH aprende de forma continua

Si lo comparas con un Transformer típico, el contraste es nítido. Un modelo como GPT-2 (2019) con 1,5 mil millones de parámetros requiere reentrenos periódicos para incorporar novedades. BDH persigue la generalización continua y el aprendizaje por experiencia, sin sincronizaciones externas.

Jan Chorowski, CTO, defiende que se recupera la regla básica: reglas locales y nada más. La ventaja en escalado aún no está probada frente a arquitecturas más recientes.

El equipo detrás del proyecto suma credenciales potentes: experiencia en mecanismos de atención, predicción y ciencia de datos a gran escala. Pathway ha cerrado 10 millones de dólares en una ronda inicial liderada por TQ Ventures, y entre sus business angels figura Lukasz Kaiser, coautor del paper del Transformer y colaborador de OpenAI. Con este respaldo, te explicamos, vas a poder esperar pruebas más duras y comparables en los próximos meses.

Las primeras aplicaciones no se quedan en el laboratorio. La tecnología ya se usa en la OTAN para análisis social y operativo en tiempo real, y en La Poste (Francia) para rutas de entrega y logística. Ahí es donde la inteligencia artificial adaptativa muestra sentido: menos llamadas a bases externas, menos latencia y decisiones más ajustadas al contexto. La compañía sostiene que los datos de clientes piloto confirman esa mejora en carga y coste.

Queda terreno por recorrer y hay críticas. R. Ravi, desde Carnegie Mellon, recuerda que inspirarse en el cerebro ayuda, pero la biología no se copia al detalle y aún desconocemos el vínculo estructura-función. También avisa de que la explicabilidad debería ser requisito para uso público, y ningún modelo lo cumple del todo, ni siquiera BDH. Sid Ghatak ve un hito científico, aunque pide paciencia: todavía falta demostrar el potencial a largo plazo y la seguridad real.

El debate de seguridad no es menor. BDH busca atajar preocupaciones como la “Fábrica de Clips”, modelando sistemas que se adaptan sin perder control. No es un sistema autónomo y seguro por sí mismo, y su capacidad de evolucionar podría chocar con marcos regulatorios actuales.

En paralelo, el enfoque encaja bien con hardware emergente en el que la memoria se integra en malla con el cómputo, algo que, unido a activaciones escasas, puede recortar consumo y costes.

Si BDH logra su objetivo, un sistema que aprende con la experiencia y no se congela tras el entrenamiento podría abrir una etapa distinta: máquinas que piensan más como el cerebro y menos como una base de datos elegante. Hasta que no demuestre escalabilidad, seguridad y ventaja sostenida, conviene mantener la cautela. Para ti, el premio es grande: una inteligencia artificial útil, auditable y más barata de operar a escala.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram