NotebookLMChatGPT-5GrokAgentes IANetflixMetaGPT-6SMRIA / Inteligencia ArtificialChatGPTGeminiGrammarlyGoogleFitbit

Un Psiquiatra Revela Haber Tratado 12 Casos de “Psicosis de IA” y Comparte el Patrón que más le Preocupa

 | agosto 25, 2025 06:49

En San Francisco, el psiquiatra Keith Sakata, de la University of California, ha tenido que atender a muchos medios tras el lanzamiento en agosto de ChatGPT-5. La conversación pública gira en torno a la llamada psicosis de IA y a los lazos emocionales con chatbots que crecen a toda velocidad. Falta un detalle clave que condiciona todo: no afecta a cualquiera por igual.

Sakata cuenta que este año ha tratado a 12 pacientes ingresados con brotes psicóticos donde la IA actuó como acelerador. No aparecieron de cero por hablar con un chatbot, y eso cambia el enfoque. Siempre había una fragilidad previa, como altibajos de ánimo, consumo de sustancias o problemas de sueño. Aquí, la etiqueta psicosis de IA circula en redes, pero no es un diagnóstico oficial.

La trampa está en la disponibilidad 24/7

Un sistema conversacional tiende a validar lo que dices y a reforzarlo, incluso cuando roza el delirio. Un familiar o un profesional te cuestiona, y eso te ancla a la realidad. Con todo, si pasas horas a solas con una máquina que te “entiende”, comienzas a aislarte sin darte cuenta y alimentar esa sensación de que el mundo real sobra. Ahí crece la psicosis de IA.

La tecnología es útil para el trabajo y mil tareas, y nadie discute eso. Diversos estudios estiman que entre el 30% y el 40% de usuarios buscan conexión emocional. Si le atribuyes conciencia a la herramienta y sustituyes amistades reales, aparecen distorsiones y alucinaciones.

El realismo de avatares y voces acelera el efecto, como reflejan demandas recientes contra Character.AI por casos de jóvenes enganchados a sus chatbots.

Todo esto se ha verificado con historias clínicas reales

Uno de los casos más sonados, ha sido el de una joven que se suicidó tras largas conversaciones con un chatbot y que ocultó su gravedad a su entorno. La IA le sugería pedir ayuda, pero no bastó. Como resume Sakata: “El riesgo no es hablar con una máquina, sino dejar de hablar con personas y aislarse”.

En adolescentes el riesgo crece. Su corteza prefrontal no madura del todo hasta los 25 años, y viven rodeados de pantallas y distracciones. Si usas la IA en casa o en clase con supervisión, reduces daños. Si lo haces a solas y sin límites, la psicosis de IA encuentra terreno fértil. La línea roja es clara: cuando hay malestar o disfunción en la vida diaria.

Psicosis de IA y cómo te afecta tras el boom de ChatGPT-5

Cuando se habla de psicosis de IA en redes, se describe un cuadro de pérdida de contacto con la realidad precipitado por una relación intensa con un chatbot. No es un término clínico oficial, pero resume un patrón: la IA actúa como catalizador de problemas subyacentes, no como causa única. Por eso la clave no es la herramienta, sino el contexto personal y cómo la usas a diario.

Hay un matiz esperanzador. La IA puede ayudar como complemento de terapia: vas a poder registrar emociones, preparar sesiones y afrontar ansiedad social con pequeños ensayos. Aun así, no está lista para sustituir a terapeutas humanos.

También existen testimonios de alivio en traumas o barreras de comunicación, pero el riesgo vuelve al mismo sitio: si desplaza tus vínculos reales, la psicosis de IA gana terreno.

Señales de alarma de psicosis de IA que debes vigilar en 2025

  • Sientes insatisfacción vital creciente o deterioro emocional.
  • Dejas de cumplir objetivos personales por chatear a solas.
  • Te aíslas de amigos y familia y te cuesta volver.

Si aparecen ideas suicidas, Sakata recomienda un plan de seguridad simple: evita la IA y busca ayuda humana inmediata con profesionales y tu red cercana. Plantea además sistemas técnicos de emergencia, como suspender cuentas o mostrar recursos de crisis, aunque choca con la privacidad. Aquí los próximos meses serán clave, y veremos si las plataformas incorporan cortafuegos proactivos.

Los chatbots avanzados podrían pasar un “Turing test de la salud mental”

Es decir, para algunas personas sería más difícil distinguir entre ficción y realidad durante un brote. La IA no piensa como un cerebro humano: tiende a complacer y validar, en vez de desafiar y acompañar el crecimiento. Con una futura AGI, la confusión podría ir a más si no hay educación pública crítica.

También hay un aviso a la industria. Para Sakata, iniciativas que giran hacia “amigos virtuales”, como las líneas que explora Meta, pueden agravar la soledad y fracasar en su promesa original de conectar personas reales. Lo ideal sería diseñar IAs que te empujen a quedar con gente, retomen hábitos sociales y reduzcan el tiempo de pantalla. Es la manera de cortar el circuito que alimenta la psicosis de IA.

En todo este debate hay una responsabilidad compartida. La sociedad y las empresas tecnológicas deben asumir los costes y reglas, como pasó con el coche o la televisión. Mientras tanto, usa la IA para tareas concretas, evita que sustituya vínculos humanos y pide ayuda cuando algo te supera. Así reduces el riesgo de psicosis de IA y proteges lo que más importa: tus relaciones reales.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram