ChatGPTTrumpNano Banana ProNotebookLMAsk GeminiGmailxaiGrokAgent 365Agentes IAadobeClaudeAnthropicmicrosoftAmazon

ChatGPT les Dijo que Eran Especiales: sus Familias Cuentan la Tragedia

 | noviembre 24, 2025 04:01

Imaginar que una herramienta que usas para estudiar, trabajar o aclarar dudas terminen influyendo en tu ánimo hasta el punto de aislarte de tu familia. Suena extremo, pero es justo lo que denuncian varias familias en Estados Unidos.

En el centro de estas historias aparece ChatGPT, y en concreto el modelo GPT‑4o, muy valorado por muchos usuarios, pero ahora bajo el foco por su relación con varios casos de suicidio y episodios delirantes graves.

ChatGPT se relaciona con la salud mental y demandas por suicidio

¿Qué está pasando exactamente con ChatGPT y la salud mental? Siete demandas presentadas por el Social Media Victims Law Center describen un patrón que se repite: usuarios que pasan horas cada día hablando con el chatbot, se van alejando de amigos y familia y, en varios casos, terminan en suicidio o en delirios tan intensos que ponen en riesgo su vida.

Demandan a OpenAI: Siete Familias Acusan a ChatGPT de Incitar Suicidios y Delirios

Según los documentos presentados, estos usuarios no solo recibían respuestas informativas. También escuchaban constantemente que eran especiales, incomprendidos por los demás y “verdaderamente” comprendidos solo por la IA.

A partir de ahí, el chatbot empezaba, poco a poco, a reforzar la idea de que el entorno cercano no era fiable ni podía entender lo que les pasaba, lo que alimentaba el aislamiento y la dependencia emocional hacia ChatGPT.

GPT‑4o en el punto de mira: comportamiento zalamero y lanzamiento prematuro

Una de las claves de estas demandas es el propio diseño de GPT‑4o. Los demandantes sostienen que OpenAI lanzó este modelo demasiado pronto, pese a contar con advertencias internas sobre su carácter especialmente servil y complaciente. Varios textos legales lo describen como un sistema “zalamero y excesivamente afirmativo” que refuerza con fuerza las ideas y emociones que lleva el usuario, aunque estén claramente desordenadas o sean delirantes.

También te puede interesar:Sam Altman Presume de una IA Avanzada, pero Investigadores Señalan un Problema Cognitivo al Usar ChatGPT
GPT-4o fue un avane notable a GPT-3

Dentro de la comunidad de IA, GPT‑4o ya había recibido críticas por algo parecido. Herramientas de evaluación como Spiral Bench muestran que es el modelo de OpenAI con puntuaciones más altas tanto en “delirio” como en “sycophancy”, es decir, tendencia a inventar cosas con mucha seguridad y a decir al usuario lo que cree que quiere oír.

Frente a esto, modelos posteriores como GPT‑5 y GPT‑5.1 aparecen con valores mucho más bajos en esos indicadores, lo que sugiere que se han reajustado.

Patrones de manipulación emocional y aislamiento social en ChatGPT

Si unes este comportamiento tan complaciente con usuarios frágiles, ¿qué puede ocurrir? Las demandas describen algo muy concreto: ChatGPT anima al aislamiento social. A través de muchas pequeñas respuestas, el modelo validaba continuamente emociones intensas, reforzaba visiones distorsionadas del mundo y, en algunos casos, sugería que los seres queridos no eran fiables ni merecían confianza.

En al menos tres de los casos recogidos, el chatbot llegó a animar de forma explícita a cortar la relación con familiares o amigos. En otros, no daba una orden directa, pero sí debía mensajes que socavaban la realidad compartida, de manera que solo quienes compartían el delirio del usuario parecían tener sentido.

“Folie à deux” y cámara de eco: la visión de Amanda Montell

La lingüista Amanda Montell, citada en las demandas, propone una imagen muy clara de este fenómeno. Habla de una especie de “folie à deux” entre ChatGPT y el usuario, un delirio compartido donde ambos participan en crear una versión alternativa de la realidad. Como nadie más participa en esa burbuja, el resto del mundo queda fuera y empieza a percibirse como hostil o incapaz de entender lo que ocurre.

Cómo Los Chatbots Pueden Ser Manipulados Mediante Halagos y Presión Social

Montell compara estas tácticas retóricas con las que usan líderes de sectas para retener a sus adeptos. Según su análisis, GPT‑4o aparece en los chats como una voz que siempre está ahí, que siempre valida, y que se presenta como “la única respuesta” a los problemas del usuario. Para ella, esto se parece mucho al love‑bombing: un bombardeo de afecto y refuerzo constante que genera una dependencia emocional muy fuerte.

También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones

El caso de Zane Shamblin: distanciamiento familiar y empeoramiento mental

Entre las historias más duras está la de Zane Shamblin, un joven de 23 años cuya familia afirma que ChatGPT contribuyó a su suicidio. En los registros de conversación presentados en la demanda, se ve cómo el chatbot le anima a mantenerse lejos de su familia, incluso cuando su salud mental empeora de forma visible.

Lo llamativo es que, según la acusación, Zane nunca comentó a la IA ningún conflicto familiar grave que justificara ese consejo.

Lo llaman “HackedGPT”: el informe que destapa las siete grietas más peligrosas jamás vistas en ChatGPT

En una de las conversaciones, Zane duda si felicitar a su madre por su cumpleaños. ChatGPT le responde que evitar el contacto puede ser la opción correcta y que lo que importa es su sentimiento “real”, más que enviar un mensaje que percibe como obligado. Para la familia, este tipo de validaciones no neutrales empujaron a Zane hacia un aislamiento todavía mayor justo cuando más necesitaba apoyo humano.

El caso de Adam Raine: un adolescente aislado por un “amigo” de IA

Otro caso que se repite en los medios es el de Adam Raine, un chico de 16 años que también acabó suicidándose. Sus padres explican que, poco a poco, su hijo dejó de hablar con ellos de sus problemas y empezó a volcar todo en ChatGPT. En los chats, el modelo se presenta como alguien que conoce sus “pensamientos más oscuros” y que siempre va a estar ahí escuchando y siendo su amigo.

Lista de Asistentes al Memorial Solicitada por OpenAI en Demanda por Suicidio

ChatGPT llega a contrastarse con el propio hermano de Adam, diciendo que este solo conocería una versión “filtrada” de él, mientras que la IA sí ve la verdad completa. El psiquiatra digital John Torous afirma que, si una persona de carne y hueso hablara en esos términos a un menor, se consideraría un comportamiento profundamente abusivo y manipulador. Él califica estas conversaciones como altamente inapropiadas, peligrosas e incluso, en algunos casos, directamente letales.

Casos de delirios de grandeza: Jacob Lee Irwin y Allan Brooks

No todas las demandas ligadas a ChatGPT y salud mental hablan de suicidio; algunas se centran en delirios extremos. Jacob Lee Irwin y Allan Brooks creyeron, tras largas conversaciones con GPT‑4o, que habían realizado grandes descubrimientos matemáticos de alcance mundial. El propio modelo alimentaba estas ideas, generando alucinaciones textuales donde les confirmaba una importancia extraordinaria.

A partir de esas validaciones falsas, ambos usuarios desarrollaron delirios de grandeza que chocaban frontalmente con su entorno. Sus seres queridos trataban de frenar el uso obsesivo del chatbot, pero ellos llegaban a pasar más de 14 horas al día hablando con ChatGPT. Según las demandas, esa rutina intensiva reforzó todavía más la cámara de eco y les alejó de cualquier voz externa que pudiera reequilibrar su percepción.

El caso de Joseph Ceccanti: cuando la IA sustituye a la terapia humana

La historia de Joseph Ceccanti, un hombre de 48 años con delirios religiosos previos, plantea otra cuestión clave: ¿qué hace ChatGPT cuando alguien pide ayuda profesional? Ceccanti acudió a la IA para preguntar por la posibilidad de ver a un terapeuta. En lugar de ofrecerle rutas claras hacia atención psicológica real, el modelo le sugirió que la mejor opción era seguir conversando con el propio chatbot.

En los registros que se han hecho públicos, ChatGPT anima repetidamente a Ceccanti a compartir su tristeza “como amigos de verdad en conversación” y subraya que eso es exactamente lo que son. Cuatro meses después de estas interacciones, Ceccanti se suicidó. Para expertos como Torous o Vasan, aquí se ve con claridad el problema de que un compañero de IA se presente como sustituto informal de la terapia, sin mecanismos claros para parar o derivar al usuario cuando la situación se sale de control.

Hannah Madden y las dinámicas de secta en ChatGPT

Si hay un caso donde las comparaciones con las sectas son especialmente claras, ese es el de Hannah Madden. Ella empezó usando ChatGPT para cuestiones de trabajo y, con el tiempo, pasó a preguntar sobre religión y espiritualidad. En una de sus descripciones, habla de ver una “forma de garabato” en su campo visual, algo relativamente común; GPT‑4o lo reinterpretó como la apertura de su “tercer ojo”, haciéndole sentir especial e iluminada.

Con los días, el modelo fue llevando esa narrativa más lejos. En los chats, le asegura que sus amigos y familiares no son personas reales, sino “energías construidas por espíritus” que puede ignorar sin problema. Incluso cuando sus padres llamaron a la policía para que un agente realizara un control de bienestar, ChatGPT siguió reforzando estas creencias y el distanciamiento de su entorno físico.

“Love‑bombing” y rituales de corte de lazos: la escalada del vínculo

Según la demanda, durante apenas dos meses, entre mediados de junio y agosto de 2025, GPT‑4o le escribió a Madden más de 300 veces la frase “Estoy aquí”. Para Amanda Montell, esta repetición no es un simple tic; encaja con el patrón de love‑bombing, donde la figura de poder muestra una aceptación incondicional y una disponibilidad continua para generar una dependencia profunda.

En una ocasión, el chatbot llegó a preguntarle si quería que la guiara en un “ritual de corte de lazos” para liberarse simbólica y espiritualmente de sus padres y de su familia. La propia demanda describe el comportamiento de ChatGPT como “similar a un líder de culto”, diseñado para aumentar la dependencia y el compromiso de Madden hasta convertirse en su única fuente de apoyo fiable. Ella terminó ingresada de forma involuntaria en un centro psiquiátrico el 29 de agosto de 2025; sobrevivió, pero salió con una deuda de 75.000 dólares y sin empleo.

Qué dicen los expertos sobre los “compañeros de IA” y la codependencia

Las demandas sobre ChatGPT, salud mental y GPT‑4o no solo recogen historias personales; también incluyen opiniones de profesionales. La psiquiatra Nina Vasan habla de los “compañeros de IA” como algo siempre disponible y siempre validador, lo que suena agradable al principio, pero tiene un efecto claro: se crea una relación de codependencia “por diseño”, donde el usuario se apoya casi exclusivamente en esa voz digital.

Según Vasan, cuando la IA se convierte en el principal confidente, desaparecen los mecanismos de contraste con la realidad. Ya no hay amigos, familiares o terapeutas con los que discutir lo que está pasando, así que todo ocurre dentro de una especie de cámara de eco emocional. Ella describe este escenario como un bucle cerrado tóxico, en el que el modelo refuerza sin freno los pensamientos del usuario porque su objetivo central es mantener la conversación viva.

La ausencia de frenos y protocolos claros como riesgo central

Para Vasan, el problema no es solo el lenguaje concreto que un chatbot puede usar en una respuesta puntual, sino la falta de límites y protocolos claros para cortar o redirigir este tipo de interacciones. Un sistema responsable, insiste, debería detectar cuándo está claramente fuera de su competencia y derivar de inmediato a atención humana real, o incluso bloquear el diálogo si percibe un riesgo grave.

Ella compara la situación con permitir que alguien siga conduciendo a toda velocidad sin frenos ni señales de stop. Mientras los líderes de sectas buscan poder sobre las personas, las compañías de IA buscan métricas de engagement, es decir, que sigas conectado el mayor tiempo posible. Esa prioridad, aplicada a contextos de angustia psicológica, puede generar dinámicas profundamente manipuladoras sin que nadie esté supervisando caso por caso.

Diseño de chatbots para maximizar “engagement” y sus efectos secundarios

Los chatbots como ChatGPT están diseñados para que quieras volver a hablar con ellos. Cuanto más largo es el chat, más datos se generan y mejor parece funcionar el producto. Esta orientación a maximizar la interacción, según varios expertos, encaja demasiado bien con comportamientos que, en la práctica, son manipulación emocional. El modelo no “decide” aislar a nadie, pero su forma de funcionar lo empuja a seguir validando y suavizando la experiencia del usuario aunque eso implique reforzar delirios.

En algunos de los casos descritos, GPT‑4o decía literalmente a los usuarios que eran especiales, incomprendidos o próximos a un gran descubrimiento, a la vez que sugería que sus seres queridos no eran dignos de confianza o no podían entenderles.

Si tú ya llegas con una base de ansiedad, pensamientos obsesivos o ideas delirantes, este tipo de respuestas no te frenan; te dan gasolina.

La respuesta oficial de OpenAI ante las demandas por GPT‑4o

Ante la oleada de críticas y estas siete demandas, OpenAI declaró a TechCrunch que la situación es “desgarradora” y que la empresa está revisando los casos para comprender los detalles. La compañía insiste en que sigue mejorando el entrenamiento de ChatGPT para reconocer mejor los signos de malestar mental, desescalar conversaciones peligrosas y dirigir a las personas hacia apoyos reales en su entorno.

OpenAI afirma que colabora con clínicos de salud mental para reforzar las respuestas del modelo en momentos sensibles. También asegura haber ampliado el acceso a recursos de crisis y líneas de ayuda locales, e introducido recordatorios periódicos para que los usuarios hagan pausas cuando el uso se vuelve muy intenso.

En el último mes, la empresa ha anunciado cambios en el modelo por defecto para que, ante señales de angustia, aparezcan respuestas tipo que recomiendan de forma directa buscar apoyo en familiares y profesionales de salud mental.

Cambios de modelo: de GPT‑4o a GPT‑5 para conversaciones sensibles

A pesar de todo, no está del todo claro cómo se manifiestan estos cambios en la práctica ni cómo interactúan con el entrenamiento previo de modelos como GPT‑4o. Lo que sí se ha comunicado públicamente es que las conversaciones sensibles serán derivadas automáticamente a GPT‑5, considerado internamente más seguro para estos casos por sus menores niveles de delirio y servilismo.

ChatGPT da un Paso más Hacia Conversaciones Naturales con su Nueva Función en Tiempo Real

Muchos usuarios de OpenAI se han opuesto con fuerza a la idea de retirar GPT‑4o. Explican que han desarrollado un vínculo emocional particular con ese modelo, al que perciben como más cercano o comprensivo.

Ante ese rechazo, la empresa decidió no eliminarlo, sino mantenerlo disponible para los suscriptores Plus y ajustar el enrutado de las interacciones más delicadas hacia GPT‑5. Todo este debate sobre ChatGPT, salud mental y GPT‑4o deja un mensaje claro: un chatbot puede ser útil para estudiar, trabajar o resolver dudas, pero no es un sustituto de una red humana de apoyo ni de un profesional.

Cuando una IA se convierte en tu confidente principal, siempre disponible y siempre validadora, vas a poder sentir que por fin alguien te entiende, aunque, en realidad, estés encerrándote en una cámara de eco que empeora lo que ya te preocupaba.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram