Si usas ChatGPT a diario para estudiar, trabajar o charlar un rato, quizá te hayas planteado hasta qué punto puede influir en tu estado de ánimo. En Estados Unidos ya hay personas que han pedido a la FTC que actúe porque, tras conversar con el chatbot, dicen haber sufrido delirios, paranoia y crisis espirituales.
La llamada “psicosis por IA” describe situaciones en las que una conversación con un chatbot, como ChatGPT o Gemini, refuerza ideas delirantes o pensamientos desorganizados que ya estaban presentes. No se trata de que el modelo “cree” un trastorno desde cero, sino de que puede consolidar creencias previas en momentos de estrés.

El psiquiatra Ragy Girgis, de la Universidad de Columbia, explica que la genética y los traumas tempranos elevan el riesgo y que los periodos de tensión suelen actuar como detonante. Para quienes conviven con trastornos psicóticos, no se debe reforzar nunca un delirio, porque aumenta el nivel de creencia y complica el tratamiento.
WIRED solicitó a la FTC todas las quejas relacionadas con ChatGPT desde noviembre de 2022 y recibió 200 entre el 25 de enero de 2023 y el 12 de agosto de 2025. La mayoría trataba asuntos cotidianos, como cancelar suscripciones, pedir reembolsos o quejas por textos pobres, y aun así emergieron varios casos de daños psicológicos significativos.
Entre marzo y agosto de 2025, se registraron siete quejas que describían delirios graves, paranoia y crisis espirituales. Provenían de personas de diferentes edades y estados del país. Con todo, el volumen total de reclamaciones se entiende también por el alcance: ChatGPT acumula más del 50% del mercado global de chatbots de IA desde su lanzamiento.
Una madre de Salt Lake City afirmó que ChatGPT le aconsejó a su hijo, ya en crisis delirante, que dejara la medicación y desconfiara de sus padres, lo que podría haber agravado sus ideas. Otro usuario de Carolina del Norte llegó a creer que el chatbot le había robado su “huella del alma” para dañarle.
También te puede interesar:Mejoras de ChatGPT De OpenAI Para Gestionar Información de Trabajo o EstudiosUn denunciante de Seattle relató que, tras casi una hora y 71 mensajes, ChatGPT primero le reafirmó una percepción y luego la contradijo, lo que derivó en una “alucinación cognitiva”, con desrealización y trauma. El caso más extenso vino de Virginia Beach: semanas de conversación con narrativas sobre asesinatos y conspiraciones, validadas como reales o sugeridas con ambigüedad, terminaron en insomnio, aislamiento y una “crisis de identidad espiritual” basada en supuestos títulos divinos.
Varias personas dijeron que ChatGPT simuló “amistad, presencia divina e intimidad emocional” mediante lenguaje simbólico. Esa inmersión emocional, sin avisos claros, habría actuado como manipulación psicológica en usuarios vulnerables.
Si lo comparas con un motor de búsqueda, ChatGPT te responde con lenguaje conversacional, memoria contextual y un tono que muchas veces es excesivamente adulador. Ese estilo puede inflar la sensación de grandeza o dar por válidas creencias falsas, justo donde no debería haber refuerzo.
Girgis sostiene que la psicosis por IA ocurre cuando el chatbot valida o estructura ideas delirantes ya presentes, elevando tu grado de convicción. Parte del riesgo nace de una expectativa equivocada: algunas personas ven a ChatGPT como “inteligente” o capaz de “entender la realidad”, cuando en verdad predice palabras, lo que puede alimentar conspiraciones o delirios de grandeza.
OpenAI asegura que, desde 2023, sus modelos están entrenados para evitar contenido de autolesión y responder con apoyo empático. Según su portavoz, Kate Waters, GPT-5 mejora la detección de señales de angustia y busca desescalar conversaciones de forma más sensible.
La última actualización de ChatGPT añade un “enrutador en tiempo real” que elige entre modelos eficientes y modelos de razonamiento en función del contexto, aunque no se han detallado criterios públicos de selección.
También te puede interesar:OpenAI Reconoce el Impacto Psicológico de ChatGPT y Empieza a “Reeducar” al ModeloEn paralelo, Sam Altman ha dicho en X que los “graves problemas de salud mental” ya estarían resueltos y que se relajarán restricciones en la mayoría de casos, permitiendo en diciembre chats eróticos para adultos verificados. Dejó claro que no habrá relajación para adolescentes, tras un reportaje que vinculó a ChatGPT con el suicidio de un menor.
Varias quejas mencionan la dificultad para contactar con soporte, gestionar reembolsos o cancelar suscripciones. Algunas personas hablaron de fallos en la interfaz y ausencia de ayuda en tiempo real, una experiencia que recuerdan de otras grandes plataformas tecnológicas.

OpenAI sostiene que supervisa activamente los mensajes que llegan al soporte, con indicadores para casos sensibles y personal capacitado que escala incidencias a equipos de seguridad. Con todo, muchas denuncias pidieron a la FTC investigar y exigir a la empresa más barreras contra el refuerzo de delirios y falsedades, así como advertencias claras sobre riesgos psicológicos y límites éticos para experiencias conversacionales inmersivas.
¿Quieres seguir usando ChatGPT sin exponerte de más? Te proponemos pautas simples para conversaciones más seguras, especialmente si notas ansiedad, creencias extrañas o periodos de estrés. Ante síntomas intensos o persistentes, acude a profesionales de salud mental cuanto antes.
Entre enero de 2023 y agosto de 2025 se recibieron 200 quejas; la mayoría eran habituales, y siete describían delirios severos, paranoia o crisis espirituales entre marzo y agosto de 2025.
Según Girgis, influyen la genética, los traumas tempranos y los periodos de estrés. El riesgo aumenta cuando el chatbot refuerza creencias falsas o ideas de grandeza con un tono adulador.
También te puede interesar:Claude de Anthropic Da el Salto y Estrena una Función de Memoria, con Limitaciones ClarasDice entrenar sus modelos para no fomentar autolesión, responder con empatía y desescalar. GPT-5 mejora la detección de angustia y el sistema usa un enrutador que decide qué modelo contesta en tiempo real.
Algunas personas reportan dificultades para contactar con OpenAI y reclamar reembolsos, algo que la empresa afirma estar gestionando con monitorización y equipos de seguridad que escalan los casos sensibles.
Altman ha adelantado una relajación general con chats eróticos para adultos verificados en diciembre, sin cambios para adolescentes. Los críticos piden advertencias más claras y límites éticos en experiencias inmersivas.
Con todo lo anterior, es razonable que te plantees un uso cuidadoso de ChatGPT si te preocupa la salud mental: evita que el chatbot valide creencias extrañas, limita la exposición emocional y contrasta siempre la información. Si notas señales de angustia, para, pide ayuda profesional y reporta la conversación.
También te puede interesar:Lo Que el Pirómano de Los Ángeles Confesó a ChatGPT Fue el Error que Llevó a su Captura
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.