La Universidad de Barcelona (UB) se ha metido de lleno en una de las preguntas más frustrantes —y a la vez más importantes— de la enfermedad de Huntington: por qué en algunas personas aparece antes y en otras tarda años en manifestarse.
Su nuevo estudio, basado en datos genéticos de más de 9.000 pacientes, utiliza inteligencia artificial para poner orden en un panorama que la genética “clásica” no lograba explicar del todo. El trabajo está firmado por equipos de la Facultad de Medicina y Ciencias de la Salud y del Instituto de Neurociencias de la UB, con Jordi Abante como investigador principal.
Aquí no hablamos de “IA” como comodín para titulares llamativos, sino de modelos diseñados para detectar interacciones reales entre genes, un enfoque que puede cambiar la forma en que se investiga esta enfermedad.
La enfermedad de Huntington es un trastorno hereditario y neurodegenerativo que provoca un deterioro progresivo de las neuronas. Suele combinar síntomas motores y psiquiátricos, una mezcla especialmente dura tanto para el paciente como para su entorno.

Su origen se atribuye a una mutación en el gen HTT, que altera la proteína huntingtina y afecta a su funcionamiento en el cerebro. Sin embargo, si el “culpable” está tan claramente identificado, surge una pregunta incómoda: ¿por qué la edad de inicio varía tanto entre pacientes?
Ahí entra en juego la idea de los factores genéticos modificadores, es decir, piezas adicionales del puzle que pueden acelerar o retrasar la aparición de la enfermedad. No se trata solo de tener o no la mutación, sino de cómo el resto del contexto genético ajusta el reloj biológico hacia delante o hacia atrás.
Para abordar este problema, el grupo utilizó modelos de aprendizaje automático no lineal. Son algoritmos entrenados para reconocer patrones complejos en los datos sin depender de reglas rígidas definidas de antemano.
En un enfoque no lineal, la máquina puede aprender relaciones entre variables que no son evidentes a simple vista. Y esto es crucial en genética real, donde los genes no actúan de forma aislada, sino en red, con efectos que dependen del resto del genoma.
La gran promesa de este trabajo es precisamente esa: detectar interacciones “esencialmente invisibles” con métodos tradicionales. No se busca un “gen mágico”, sino combinaciones y dependencias que cambian según el perfil genético de cada paciente.
Uno de los mensajes más potentes —y también más incómodos— del estudio es que los modificadores genéticos no son universales. Según explica Abante, dependen “en gran medida” del contexto genético individual.
Esto rompe con una expectativa habitual en investigación: la de encontrar un listado fijo de genes “buenos” o “malos” que sirva para todo el mundo. Lo que en un paciente puede asociarse a un retraso en la aparición de la enfermedad, en otro puede no tener el mismo efecto o comportarse de forma distinta.
Este enfoque complica el análisis, pero también lo hace más honesto y más alineado con la medicina personalizada, donde el objetivo no es el promedio, sino el individuo concreto.
El objetivo del estudio era identificar genes capaces de acelerar o retrasar la aparición de la enfermedad en función de los antecedentes genéticos de cada paciente. Para lograrlo, el equipo desarrolló un método que comprime la información genética mediante redes neuronales diseñadas específicamente a nivel de genes.
En lugar de alimentar al modelo con miles de variables sin estructura, crearon una representación más manejable del genoma, permitiendo que la IA detectara patrones sin perderse en el ruido.

A esto se suma un elemento muy actual: la incorporación de cambios en la expresión génica predichos por un modelo de lenguaje genómico de última generación. Aquí, “modelo de lenguaje” no significa chatbot, sino un sistema entrenado para capturar regularidades biológicas y generar predicciones plausibles sobre cómo se expresa la información genética.
Este enfoque apunta a una tendencia clara: modelos tipo LLM como herramientas científicas, integrados en pipelines de investigación para conectar datos incompletos con hipótesis verificables.
El análisis permitió identificar tanto modificadores ya conocidos como nuevos genes candidatos implicados en la enfermedad. El foco no se quedó en marcadores abstractos, sino en procesos biológicos con sentido, como la regulación de la transcripción genética y el metabolismo celular.
Son rutas coherentes con lo que sabemos de una enfermedad neurodegenerativa: cómo se regula la maquinaria genética y cómo se gestiona la energía y el mantenimiento de las células.
Conviene, eso sí, mantener los pies en el suelo. Identificar genes candidatos no equivale a tener una terapia inmediata. El valor actual está en priorizar hipótesis, orientar experimentos y explicar por qué dos personas con la misma mutación pueden tener trayectorias clínicas tan distintas.
Lo más relevante de este trabajo no es un titular milagroso, sino un cambio de método. Se pasa de buscar efectos aislados a modelar interacciones complejas con herramientas diseñadas para ese nivel de dificultad.
El propio equipo plantea que este enfoque podría aplicarse a otros trastornos neurodegenerativos y hereditarios. Si los modificadores dependen realmente del contexto genético, el siguiente paso lógico será afinar modelos por poblaciones, perfiles genéticos y, con el tiempo, por subtipos clínicos.
Eso encaja con la dirección de la biomedicina actual: menos promedio y más paciente concreto. Y si algo deja claro este estudio es que la IA empieza a ser verdaderamente útil cuando deja de ser marketing y se convierte en una linterna para ver relaciones que antes eran invisibles.
Habrá que esperar a que estos genes candidatos se validen en laboratorio y se traduzcan en ensayos, diagnóstico o pronóstico, pero el mensaje ya es claro: el Huntington no se abre con una sola llave, y por fin contamos con herramientas para demostrarlo
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.