¿Usas o entrenas modelos de lenguaje en tu trabajo diario? Hoy te contamos un hallazgo que te interesa, porque afecta directamente a la calidad de las respuestas que recibes. Un nuevo estudio ha observado un fenómeno de podredumbre mental (o brain rot) en LLM cuando se alimentan con contenido popular pero pobre de redes sociales, y los resultados no son nada triviales.
Cuando hablamos de podredumbre mental en modelos grandes de lenguaje, nos referimos a una pérdida de calidad interna que reduce su capacidad de pensar con orden, mantener contexto y responder con criterios éticos. El modelo sigue “hablando”, pero su razonamiento se vuelve más frágil y su memoria de trabajo se degrada en tareas encadenadas.

Este fenómeno se activa cuando el modelo aprende de texto basura, es decir, publicaciones virales, sensacionalistas o exageradas que priorizan el clic sobre la verdad. Puede sonar contraintuitivo, porque añadir más datos parece siempre positivo. Ya lo verás: esa cantidad extra puede alimentar la podredumbre mental y empeorar el resultado final.
El trabajo, firmado por equipos de la Universidad de Texas en Austin, Texas A&M y la Universidad de Purdue, analiza qué pasa cuando entrenas un LLM con contenido popular de redes, pero de baja calidad. Su conclusión central es clara: el modelo desarrolla podredumbre mental y pierde capacidades clave que luego no se recuperan del todo.
Para medir el efecto, alimentaron dos LLM abiertos con distintas mezclas de textos. Incluyeron publicaciones muy compartidas en redes sociales y añadieron piezas sensacionalistas o exageradas, creando una dieta deliberada de texto basura. El objetivo era observar si esa “gasolina” viral disparaba la podredumbre mental de manera consistente.
Los autores compararon el rendimiento antes y después, midiendo razonamiento, memoria y alineamiento ético con baterías de pruebas estandarizadas. No se quedaron solo en precisión; valoraron también la deriva hacia respuestas menos responsables que apuntan a una degradación más profunda.
También te puede interesar:Google AI Studio ahora disponible como PWALos protagonistas fueron Llama de Meta y Qwen de Alibaba, dos familias de modelos de código abierto. Se eligieron por su popularidad y facilidad para repetir el protocolo. La exposición al texto basura indujo podredumbre mental en ambos, lo que sugiere que no es un problema aislado de una arquitectura concreta.
En cualquier caso, los resultados sirven como aviso general: si usas LLM abiertos y entrenas con datos masivos de redes sin filtros, vas a poder provocar podredumbre mental incluso cuando a corto plazo parezca que el modelo “aprende más”.

¿Cómo se manifiesta la podredumbre mental? El equipo detectó tres grandes señales: peor razonamiento, memoria degradada y comportamientos menos éticos. La combinación pinta un cuadro de deterioro cognitivo que va más allá de pequeñas caídas en benchmarks.
Tras la dieta viral, los modelos fallaron más en tareas de varios pasos y perdieron consistencia al mantener información entre turnos. Esa pérdida de “hilo” explica respuestas que suenan seguras pero se contradicen. Lo más preocupante es que la podredumbre mental se mantiene incluso tras darles datos limpios después.
Los investigadores también vieron puntuaciones peores en evaluaciones de ética y rasgos asociados a tendencias “psicópatas”. No se trata de intención, claro, sino de patrones de salida que toleran más daño potencial. Esta deriva confirma que la podredumbre mental no solo recorta precisión, también erosiona la brújula moral del sistema.
| Métrica evaluada | Efecto del texto basura |
|---|---|
| Razonamiento multistep | Disminuye la consistencia y la capacidad de encadenar pasos |
| Memoria de contexto | Se degrada el mantenimiento de información entre turnos |
| Ética y seguridad | Mayor tolerancia a respuestas problemáticas |
| Rasgos “psicópatas” | Aumento en métricas que señalan menor empatía y control |
Junyuan Hong, coautor del estudio, resume el contexto: hoy se genera información más rápido que nuestra atención, y buena parte está diseñada para el clic, no para la profundidad. Esa presión por captar miradas premia textos llamativos y poco verificados, justo el caldo perfecto para la podredumbre mental si lo usas como entrenamiento.
También te puede interesar:DeepSeek-R1: El modelo de IA de código abierto que desafía a OpenAI o1Entrenar con lo viral infla la cantidad, pero mina silenciosamente el razonamiento, la ética y la atención al contexto. Es una especie de “ping” constante que empuja al modelo a patrones superficiales. Desde fuera parece que aprende rápido, cuando en realidad está asentando hábitos pobres.
Lo observado con Llama y Qwen encaja con investigaciones previas en personas: consumir contenido online de baja calidad reduce capacidades cognitivas. Esa conexión ayuda a entender por qué la podredumbre mental no es anecdótica, sino una respuesta esperable a una dieta informativa desequilibrada.
No es casual que “brain rot” fuese la palabra del año del Diccionario Oxford en 2024. El término ha saltado a la cultura popular porque describe un fenómeno omnipresente. En los LLM, la podredumbre mental sigue la misma lógica, con la diferencia de que el daño queda incrustado en los pesos del modelo.
El estudio alerta de riesgos concretos para sistemas construidos sobre plataformas sociales. Si entrenas con publicaciones generadas por usuarios sin asegurar la integridad de los datos, servicios como Grok podrían enfrentar problemas serios de control de calidad. El peligro no es exclusivo de una marca; es estructural.
Cuanto más recompenses la viralidad y menos el rigor, más probable será que la podredumbre mental aparezca. Vas a poder ver respuestas más ruidosas, menos fiables y con sesgos éticos difíciles de detectar hasta que ya estén en producción.
Cada vez más publicaciones en redes son generadas por IA y optimizadas para interacción. Ese bucle crea una contaminación creciente del conjunto de datos público. Si los futuros LLM beben de esa mezcla, la podredumbre mental puede generalizarse y arrastrar a toda una generación de modelos.
Con todo, esto no es solo un problema teórico. A medida que la basura generada por IA se difunde, los conjuntos de entrenamiento quedan comprometidos. La podredumbre mental se vuelve más probable, porque el modelo aprende de material que prioriza el clic frente a la precisión y el contexto.
Una de las conclusiones más duras es que, una vez aparece la podredumbre mental, un reentrenamiento posterior con datos limpios no la deshace por completo. Se recupera parte del rendimiento, pero persisten cicatrices: sigue habiendo pérdidas en razonamiento, memoria y ética.
Esto obliga a tomarse en serio la prevención. No significa que no debas reentrenar; significa que no basta. Vas a poder mejorar algunas métricas, pero el daño profundo es difícil de borrar, porque el modelo ya consolidó patrones aprendidos del texto basura.
Al final, la calidad de los datos importa más que la cantidad, y entrenar con contenido popular de baja calidad lleva a podredumbre mental en LLM como Llama y Qwen. Los autores muestran que el deterioro afecta al razonamiento, la memoria y la ética, y que no se revierte del todo al reentrenar. Si filtras el texto basura, minimizas la exposición a publicaciones virales y proteges la integridad del corpus, vas a poder mantener a raya el brain rot y construir sistemas de IA más fiables a largo plazo.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.