Un estudiante, un corpus antiguo y una idea clara: así nació una IA que parece “viajar en el tiempo” para hablar como la Londres victoriana. Hayk Grigorian, aficionado de ciencias computacionales, entrenó en su portátil TimeCapsuleLLM con textos publicados en Londres entre 1800 y 1875.
Durante una sesión de prueba, Grigorian escribió: “Era el año del Señor de 1834”. Su modelo respondió como si estuviera allí, citando hechos y nombres propios de aquel año. La respuesta mencionó protestas por la Ley de Enmienda de la Ley de Pobres de 1834 y a Henry John Temple, es decir, Lord Palmerston. La sorpresa no terminó ahí.

El autor comprobó en Google que esos sucesos y ese personaje fueron reales. El modelo no había recibido documentos específicos sobre esas protestas, pero reconstruyó el contexto con solo 7.000 textos. Son unos 6,25 GB, una nada si lo comparas con los gigantes del sector. La pregunta es obvia: ¿cómo puede un modelo de lenguaje histórico lograrlo con tan poco?
Grigorian creó tres modelos desde cero, dos con nanoGPT y uno con Phi 1.5. No ajustó sistemas modernos para “parecer” antiguos. Escogió construirlos con materiales originales, sin atajos contemporáneos. Con todo, su objetivo era que el modelo no imitara, sino que “pensara” dentro de los marcos conceptuales victorianos.
Ese enfoque permite que el modelo de lenguaje histórico reproduzca vocabulario, giros y referencias tal y como aparecerían en la época. Por eso, cuando lees la salida, no solo suena creíble; también respira las prioridades y prejuicios que se manejaban entonces.
Un corpus compacto, pero coherente, centrado en Londres y el siglo XIX, aporta contexto compartido. Con esa base, el modelo de lenguaje histórico detecta conocurrencias de nombres, leyes y eventos, y aprende a hilar fechas con actores políticos.

Este caso encaja con una corriente de investigación que ya tiene nombre: HLLM (Historical Large Language Models). MonadGPT se entrenó con 11.000 textos de entre 1400 y 1700 y es capaz de tratar temas actuales con marcos del siglo XVII. XunziALLM genera poesía clásica china siguiendo reglas formales antiguas. No solo escriben como antes, también razonan como se escribía entonces.
Sirve para explorar discursos políticos, para probar respuestas a dilemas morales y para observar cómo cambian normas sociales con el tiempo. Según PNAS, estos HLLM pueden producir respuestas plausibles como si vinieran de personas de otras culturas y momentos.
En el día a día, vas a poder:
Hay límites que conviene recordar. Un modelo de lenguaje histórico no es un oráculo y también puede alucinar. Depende del sesgo del corpus y de su cobertura temática. Si vigilas fechas, cifras y actores clave, el rendimiento es útil, y más si acompañas cada salida con verificación rápida como hizo Grigorian.
Los LLM masivos como ChatGPT aprenden de cantidades inmensas de datos y generalizan muy bien. Aquí, con un conjunto pequeño y curado, se busca precisión cultural y coherencia histórica. Son metas diferentes, y complementarias. Si en el futuro Grigorian escala a 30 GB, veremos hasta dónde crece esa fidelidad.
Con 7.000 textos y un diseño cuidadoso, un modelo de lenguaje histórico puede reconstruir un episodio real como 1834 y hablar con voz victoriana. No sustituye al historiador, pero te da una lupa distinta para leer el pasado con precisión y sentido crítico.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.