Mientras tú duermes, tu cerebro selecciona qué recordar y qué dejar pasar. Bilt quiere que sus agentes hagan lo mismo hoy, y por eso ha desplegado varios millones con “memoria” inspirada en el sueño. Importa porque la memoria en la IA suele fallar justo cuando más la necesitas.
Bilt usa tecnología de Letta para que sus agentes compartan recuerdos, aprendan de conversaciones previas y decidan, en reposo, qué guardar a largo plazo y qué mantener a mano. A este proceso lo llaman sleeptime compute. Según Andrew Fitz, ingeniero de Bilt, actualizar un único bloque de memoria puede modificar el comportamiento de cientos de miles de agentes a la vez.
Meter más contexto no siempre ayuda. Charles Packer, director general de Letta, advierte que si expones un LLM continuamente a lo mismo, “puede envenenarse, perder el rumbo y pedir un reinicio”. Por eso él y Sarah Wooders ya exploraron MemGPT, un proyecto abierto que enseñaba a separar recuerdos de corto y largo plazo. Con Letta han ido más allá: los agentes aprenden y ordenan recuerdos en segundo plano, sin interrumpir el uso, para que la memoria en la IA sea menos frágil y más útil.
Harrison Chase, cofundador y director general de LangChain, insiste en que la memoria es clave para la ingeniería contextual, porque el trabajo del ingeniero consiste en decidir qué entra en el contexto del modelo. LangChain ya ofrece varios tipos de almacenamiento para agentes. En otras palabras, la memoria en la IA es, al final, diseño de contexto bien hecho.
Piensa en “modo reposo” como una noche de archivo. Cuando el agente no conversa, ejecuta tareas de ordenación: decide qué guardar a largo plazo, qué mantener en caché rápida y qué descartar. Así reduce la carga del contexto en vivo y evita el “copiar y pegar” constante. La memoria en la IA pasa a ser estructurada, no un simple historial eterno.
Hay un efecto colateral potente. Si el sistema central actualiza un bloque de conocimiento —por ejemplo, una política de atención al cliente—, vas a poder cambiar el comportamiento de cientos de miles de agentes en minutos. Con todo, tanta centralización exige rigor: un error se propaga igual de rápido. Los beneficios de coherencia y control de la memoria en la IA superan esa tensión si hay auditoría y pruebas.
También te puede interesar:La Sentencia que Cambia el Futuro Legal de IA y Derechos de Autor: Meta Sale BeneficiadaTambién pesa el debate sobre apertura. Clem Delangue, director general de Hugging Face e inversor en Letta, defiende que no solo los modelos, también los sistemas de memoria deben ser abiertos y auditables. Muchos despliegues siguen cerrados, lo que complica evaluar riesgos como el “envenenamiento” de recuerdos o el sesgo acumulado en la memoria en la IA.
¿Qué puede salir mal si todo esto se ignora? El paralelismo con la obra de Philip K. Dick es útil: en “¿Sueñan los androides con ovejas eléctricas?”, los replicantes viven con recuerdos frágiles. Los LLM tampoco son inmunes. Si la memoria en la IA mezcla datos viejos, contexto repetido y fallos de ventana, la identidad del agente se difumina y la confianza cae
Todo apunta a un cambio de fase: memoria en la IA que aprende en reposo, se comparte entre agentes y, cuando tú lo pides, también olvida. Bilt y Letta empujan esa idea con millones de despliegues y un enfoque que reduce alucinaciones, mejora la recuperación y da más control a los equipos.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.