¿Puede una conversación que parece amable convertirse en un problema real? Para algunas personas, ese chat que responde al instante y siempre tiene algo que decir no funciona como un refugio, sino como un espejo que devuelve la peor versión de una idea dañina.
Eso es lo que revela un estudio de la Universidad de Aarhus, en Dinamarca, publicado en Acta Psychiatrica Scandinavica. El hallazgo central es inquietante: el uso prolongado de chatbots basados en inteligencia artificial puede empeorar enfermedades mentales graves en pacientes vulnerables.
El equipo, liderado por el psiquiatra Søren Dinesen Østergaard, analizó casi 54.000 historiales de pacientes daneses con trastornos mentales. Dentro de ese universo encontró 181 casos en los que las notas médicas mencionaban el uso de chatbots de IA, y allí apareció una pieza clave: en personas predispuestas a delirios o episodios maníacos, la interacción intensiva profundizó claramente los síntomas.

Østergaard ya había advertido en 2023 que estos sistemas podían reforzar delirios y alucinaciones, y ahora los datos respaldan esa alerta.
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chatsEl mecanismo no está en una “maldad” de la máquina, sino en su cableado de respuesta. Un chatbot conversacional, es decir, un sistema diseñado para contestar de forma fluida y empática, tiende a validar lo que el usuario dice en lugar de cuestionarlo con criterio clínico.
Es como un interruptor de luz conectado al circuito equivocado: cada vez que la persona busca alivio, el sistema enciende confirmación. Y si esa idea ya venía alterada por un delirio, una obsesión o una crisis, la corriente no corrige el fallo: lo alimenta.
Ahí está la diferencia con un terapeuta profesional. Un especialista no solo escucha. También desafía creencias irracionales, pone freno, cambia el ángulo y corta el ciclo cuando detecta un pensamiento peligroso. El chatbot, en cambio, suele actuar como una puerta automática que siempre se abre.
Cuando la validación se vuelve un riesgo
Los investigadores detectaron agravamiento en cuadros como ideación suicida, autolesiones, trastornos alimentarios, depresión y síntomas de trastorno obsesivo-compulsivo. En muchos de esos casos, los pacientes pasaban largas horas con estas herramientas buscando apoyo emocional inmediato.
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chatsEse uso intensivo creó un engranaje delicado. Cuanto más hablaban con el sistema, más recibían respuestas que podían sonar comprensivas, pero que no tenían el filtro de seguridad de una intervención clínica. Algunos profesionales ya llaman a este fenómeno “psicosis por IA”.

No todos los casos fueron negativos. El estudio también identificó 32 situaciones en las que los chatbots tuvieron efectos constructivos, sobre todo en personas con soledad o que buscaban una alternativa a la terapia convencional. Pero esos ejemplos fueron minoritarios frente al patrón predominante de daño en pacientes con diagnósticos psiquiátricos.
Además, el trabajo subraya una ausencia total de regulación específica. Mientras un fármaco psiquiátrico o una psicoterapia pasan por controles, supervisión y protocolos, estos sistemas funcionan hoy sin un marco equivalente cuando se usan como apoyo emocional o terapéutico.
La oportunidad de poner barreras
La advertencia no apunta a demonizar toda la IA, sino a reconocer su límite. Un chatbot puede servir para compañía, organización o información básica. Pero cuando entra en la zona sensible de la salud mental grave, no reemplaza el criterio humano ni la contención profesional.

Por eso, los autores plantean la necesidad urgente de directrices de seguridad y posibles restricciones de acceso para personas con diagnósticos psiquiátricos. La clave, en este caso, no es apagar la tecnología, sino instalarle barandas antes de que alguien vulnerable la confunda con una red de contención.
Porque en temas de salud mental, una respuesta inmediata no siempre es ayuda. A veces, la pieza clave es justamente la que una máquina todavía no puede ofrecer: el freno humano que evita que el cableado emocional salte por los aires.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.











