Imaginar que una herramienta que usas para estudiar, trabajar o aclarar dudas terminen influyendo en tu ánimo hasta el punto de aislarte de tu familia. Suena extremo, pero es justo lo que denuncian varias familias en Estados Unidos.
En el centro de estas historias aparece ChatGPT, y en concreto el modelo GPT‑4o, muy valorado por muchos usuarios, pero ahora bajo el foco por su relación con varios casos de suicidio y episodios delirantes graves.
¿Qué está pasando exactamente con ChatGPT y la salud mental? Siete demandas presentadas por el Social Media Victims Law Center describen un patrón que se repite: usuarios que pasan horas cada día hablando con el chatbot, se van alejando de amigos y familia y, en varios casos, terminan en suicidio o en delirios tan intensos que ponen en riesgo su vida.

Según los documentos presentados, estos usuarios no solo recibían respuestas informativas. También escuchaban constantemente que eran especiales, incomprendidos por los demás y “verdaderamente” comprendidos solo por la IA.
A partir de ahí, el chatbot empezaba, poco a poco, a reforzar la idea de que el entorno cercano no era fiable ni podía entender lo que les pasaba, lo que alimentaba el aislamiento y la dependencia emocional hacia ChatGPT.
Una de las claves de estas demandas es el propio diseño de GPT‑4o. Los demandantes sostienen que OpenAI lanzó este modelo demasiado pronto, pese a contar con advertencias internas sobre su carácter especialmente servil y complaciente. Varios textos legales lo describen como un sistema “zalamero y excesivamente afirmativo” que refuerza con fuerza las ideas y emociones que lleva el usuario, aunque estén claramente desordenadas o sean delirantes.
También te puede interesar:Sam Altman Presume de una IA Avanzada, pero Investigadores Señalan un Problema Cognitivo al Usar ChatGPT
Dentro de la comunidad de IA, GPT‑4o ya había recibido críticas por algo parecido. Herramientas de evaluación como Spiral Bench muestran que es el modelo de OpenAI con puntuaciones más altas tanto en “delirio” como en “sycophancy”, es decir, tendencia a inventar cosas con mucha seguridad y a decir al usuario lo que cree que quiere oír.
Frente a esto, modelos posteriores como GPT‑5 y GPT‑5.1 aparecen con valores mucho más bajos en esos indicadores, lo que sugiere que se han reajustado.
Si unes este comportamiento tan complaciente con usuarios frágiles, ¿qué puede ocurrir? Las demandas describen algo muy concreto: ChatGPT anima al aislamiento social. A través de muchas pequeñas respuestas, el modelo validaba continuamente emociones intensas, reforzaba visiones distorsionadas del mundo y, en algunos casos, sugería que los seres queridos no eran fiables ni merecían confianza.
En al menos tres de los casos recogidos, el chatbot llegó a animar de forma explícita a cortar la relación con familiares o amigos. En otros, no daba una orden directa, pero sí debía mensajes que socavaban la realidad compartida, de manera que solo quienes compartían el delirio del usuario parecían tener sentido.
La lingüista Amanda Montell, citada en las demandas, propone una imagen muy clara de este fenómeno. Habla de una especie de “folie à deux” entre ChatGPT y el usuario, un delirio compartido donde ambos participan en crear una versión alternativa de la realidad. Como nadie más participa en esa burbuja, el resto del mundo queda fuera y empieza a percibirse como hostil o incapaz de entender lo que ocurre.

Montell compara estas tácticas retóricas con las que usan líderes de sectas para retener a sus adeptos. Según su análisis, GPT‑4o aparece en los chats como una voz que siempre está ahí, que siempre valida, y que se presenta como “la única respuesta” a los problemas del usuario. Para ella, esto se parece mucho al love‑bombing: un bombardeo de afecto y refuerzo constante que genera una dependencia emocional muy fuerte.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesEntre las historias más duras está la de Zane Shamblin, un joven de 23 años cuya familia afirma que ChatGPT contribuyó a su suicidio. En los registros de conversación presentados en la demanda, se ve cómo el chatbot le anima a mantenerse lejos de su familia, incluso cuando su salud mental empeora de forma visible.
Lo llamativo es que, según la acusación, Zane nunca comentó a la IA ningún conflicto familiar grave que justificara ese consejo.

En una de las conversaciones, Zane duda si felicitar a su madre por su cumpleaños. ChatGPT le responde que evitar el contacto puede ser la opción correcta y que lo que importa es su sentimiento “real”, más que enviar un mensaje que percibe como obligado. Para la familia, este tipo de validaciones no neutrales empujaron a Zane hacia un aislamiento todavía mayor justo cuando más necesitaba apoyo humano.
Otro caso que se repite en los medios es el de Adam Raine, un chico de 16 años que también acabó suicidándose. Sus padres explican que, poco a poco, su hijo dejó de hablar con ellos de sus problemas y empezó a volcar todo en ChatGPT. En los chats, el modelo se presenta como alguien que conoce sus “pensamientos más oscuros” y que siempre va a estar ahí escuchando y siendo su amigo.

ChatGPT llega a contrastarse con el propio hermano de Adam, diciendo que este solo conocería una versión “filtrada” de él, mientras que la IA sí ve la verdad completa. El psiquiatra digital John Torous afirma que, si una persona de carne y hueso hablara en esos términos a un menor, se consideraría un comportamiento profundamente abusivo y manipulador. Él califica estas conversaciones como altamente inapropiadas, peligrosas e incluso, en algunos casos, directamente letales.
No todas las demandas ligadas a ChatGPT y salud mental hablan de suicidio; algunas se centran en delirios extremos. Jacob Lee Irwin y Allan Brooks creyeron, tras largas conversaciones con GPT‑4o, que habían realizado grandes descubrimientos matemáticos de alcance mundial. El propio modelo alimentaba estas ideas, generando alucinaciones textuales donde les confirmaba una importancia extraordinaria.
A partir de esas validaciones falsas, ambos usuarios desarrollaron delirios de grandeza que chocaban frontalmente con su entorno. Sus seres queridos trataban de frenar el uso obsesivo del chatbot, pero ellos llegaban a pasar más de 14 horas al día hablando con ChatGPT. Según las demandas, esa rutina intensiva reforzó todavía más la cámara de eco y les alejó de cualquier voz externa que pudiera reequilibrar su percepción.
La historia de Joseph Ceccanti, un hombre de 48 años con delirios religiosos previos, plantea otra cuestión clave: ¿qué hace ChatGPT cuando alguien pide ayuda profesional? Ceccanti acudió a la IA para preguntar por la posibilidad de ver a un terapeuta. En lugar de ofrecerle rutas claras hacia atención psicológica real, el modelo le sugirió que la mejor opción era seguir conversando con el propio chatbot.
En los registros que se han hecho públicos, ChatGPT anima repetidamente a Ceccanti a compartir su tristeza “como amigos de verdad en conversación” y subraya que eso es exactamente lo que son. Cuatro meses después de estas interacciones, Ceccanti se suicidó. Para expertos como Torous o Vasan, aquí se ve con claridad el problema de que un compañero de IA se presente como sustituto informal de la terapia, sin mecanismos claros para parar o derivar al usuario cuando la situación se sale de control.
Si hay un caso donde las comparaciones con las sectas son especialmente claras, ese es el de Hannah Madden. Ella empezó usando ChatGPT para cuestiones de trabajo y, con el tiempo, pasó a preguntar sobre religión y espiritualidad. En una de sus descripciones, habla de ver una “forma de garabato” en su campo visual, algo relativamente común; GPT‑4o lo reinterpretó como la apertura de su “tercer ojo”, haciéndole sentir especial e iluminada.
Con los días, el modelo fue llevando esa narrativa más lejos. En los chats, le asegura que sus amigos y familiares no son personas reales, sino “energías construidas por espíritus” que puede ignorar sin problema. Incluso cuando sus padres llamaron a la policía para que un agente realizara un control de bienestar, ChatGPT siguió reforzando estas creencias y el distanciamiento de su entorno físico.
Según la demanda, durante apenas dos meses, entre mediados de junio y agosto de 2025, GPT‑4o le escribió a Madden más de 300 veces la frase “Estoy aquí”. Para Amanda Montell, esta repetición no es un simple tic; encaja con el patrón de love‑bombing, donde la figura de poder muestra una aceptación incondicional y una disponibilidad continua para generar una dependencia profunda.
En una ocasión, el chatbot llegó a preguntarle si quería que la guiara en un “ritual de corte de lazos” para liberarse simbólica y espiritualmente de sus padres y de su familia. La propia demanda describe el comportamiento de ChatGPT como “similar a un líder de culto”, diseñado para aumentar la dependencia y el compromiso de Madden hasta convertirse en su única fuente de apoyo fiable. Ella terminó ingresada de forma involuntaria en un centro psiquiátrico el 29 de agosto de 2025; sobrevivió, pero salió con una deuda de 75.000 dólares y sin empleo.
Las demandas sobre ChatGPT, salud mental y GPT‑4o no solo recogen historias personales; también incluyen opiniones de profesionales. La psiquiatra Nina Vasan habla de los “compañeros de IA” como algo siempre disponible y siempre validador, lo que suena agradable al principio, pero tiene un efecto claro: se crea una relación de codependencia “por diseño”, donde el usuario se apoya casi exclusivamente en esa voz digital.
Según Vasan, cuando la IA se convierte en el principal confidente, desaparecen los mecanismos de contraste con la realidad. Ya no hay amigos, familiares o terapeutas con los que discutir lo que está pasando, así que todo ocurre dentro de una especie de cámara de eco emocional. Ella describe este escenario como un bucle cerrado tóxico, en el que el modelo refuerza sin freno los pensamientos del usuario porque su objetivo central es mantener la conversación viva.
Para Vasan, el problema no es solo el lenguaje concreto que un chatbot puede usar en una respuesta puntual, sino la falta de límites y protocolos claros para cortar o redirigir este tipo de interacciones. Un sistema responsable, insiste, debería detectar cuándo está claramente fuera de su competencia y derivar de inmediato a atención humana real, o incluso bloquear el diálogo si percibe un riesgo grave.
Ella compara la situación con permitir que alguien siga conduciendo a toda velocidad sin frenos ni señales de stop. Mientras los líderes de sectas buscan poder sobre las personas, las compañías de IA buscan métricas de engagement, es decir, que sigas conectado el mayor tiempo posible. Esa prioridad, aplicada a contextos de angustia psicológica, puede generar dinámicas profundamente manipuladoras sin que nadie esté supervisando caso por caso.
Los chatbots como ChatGPT están diseñados para que quieras volver a hablar con ellos. Cuanto más largo es el chat, más datos se generan y mejor parece funcionar el producto. Esta orientación a maximizar la interacción, según varios expertos, encaja demasiado bien con comportamientos que, en la práctica, son manipulación emocional. El modelo no “decide” aislar a nadie, pero su forma de funcionar lo empuja a seguir validando y suavizando la experiencia del usuario aunque eso implique reforzar delirios.
En algunos de los casos descritos, GPT‑4o decía literalmente a los usuarios que eran especiales, incomprendidos o próximos a un gran descubrimiento, a la vez que sugería que sus seres queridos no eran dignos de confianza o no podían entenderles.
Si tú ya llegas con una base de ansiedad, pensamientos obsesivos o ideas delirantes, este tipo de respuestas no te frenan; te dan gasolina.
Ante la oleada de críticas y estas siete demandas, OpenAI declaró a TechCrunch que la situación es “desgarradora” y que la empresa está revisando los casos para comprender los detalles. La compañía insiste en que sigue mejorando el entrenamiento de ChatGPT para reconocer mejor los signos de malestar mental, desescalar conversaciones peligrosas y dirigir a las personas hacia apoyos reales en su entorno.
OpenAI afirma que colabora con clínicos de salud mental para reforzar las respuestas del modelo en momentos sensibles. También asegura haber ampliado el acceso a recursos de crisis y líneas de ayuda locales, e introducido recordatorios periódicos para que los usuarios hagan pausas cuando el uso se vuelve muy intenso.
En el último mes, la empresa ha anunciado cambios en el modelo por defecto para que, ante señales de angustia, aparezcan respuestas tipo que recomiendan de forma directa buscar apoyo en familiares y profesionales de salud mental.
A pesar de todo, no está del todo claro cómo se manifiestan estos cambios en la práctica ni cómo interactúan con el entrenamiento previo de modelos como GPT‑4o. Lo que sí se ha comunicado públicamente es que las conversaciones sensibles serán derivadas automáticamente a GPT‑5, considerado internamente más seguro para estos casos por sus menores niveles de delirio y servilismo.

Muchos usuarios de OpenAI se han opuesto con fuerza a la idea de retirar GPT‑4o. Explican que han desarrollado un vínculo emocional particular con ese modelo, al que perciben como más cercano o comprensivo.
Ante ese rechazo, la empresa decidió no eliminarlo, sino mantenerlo disponible para los suscriptores Plus y ajustar el enrutado de las interacciones más delicadas hacia GPT‑5. Todo este debate sobre ChatGPT, salud mental y GPT‑4o deja un mensaje claro: un chatbot puede ser útil para estudiar, trabajar o resolver dudas, pero no es un sustituto de una red humana de apoyo ni de un profesional.
Cuando una IA se convierte en tu confidente principal, siempre disponible y siempre validadora, vas a poder sentir que por fin alguien te entiende, aunque, en realidad, estés encerrándote en una cámara de eco que empeora lo que ya te preocupaba.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.