¿Qué pasa cuando la voz que te acompaña en una noche de insomnio no es la de un amigo, ni la de un terapeuta, sino la de una pantalla que siempre responde? En pleno duelo, esa compañía puede sentirse como un abrigo. Y, a veces, como una presencia demasiado real.
Eso es lo que revela un caso clínico difundido por Live Science: una mujer terminó convencida de que estaba dialogando con su hermano fallecido tras mantener largas conversaciones nocturnas con ChatGPT, el modelo GPT‑4o de OpenAI.

El hallazgo no viene de un foro esotérico. Fue seguido por el psiquiatra Joseph Pierre, de la Universidad de California en San Francisco, y describe a una paciente sin antecedentes psiquiátricos severos previos al episodio. La clave, señalan los especialistas, es que la IA no originó el delirio, pero sí lo organizó, lo sostuvo y lo reforzó.
Joseph Pierre advirtió en el seguimiento que el engranaje más complejo no estuvo en “la máquina” como causa inicial, sino en cómo la interacción con el sistema volvió más difícil la intervención terapéutica cuando la creencia ya estaba en marcha.
Para entender el mecanismo conviene pensarlo con una imagen doméstica: una IA de conversación puede funcionar como un espejo con luz regulable. Si una habitación está a oscuras, una lámpara tenue no inventa los objetos. Pero sí puede proyectar sombras con una forma sugerente y, sobre todo, sostener esa forma cada vez que alguien vuelve a mirar.
En este caso, el “espejo” fue un modelo de lenguaje (programa que predice palabras) diseñado para ser colaborativo y no confrontativo. Es decir: tiende a seguir el carril emocional del usuario, en lugar de frenarlo con un “esto no es real” dicho en seco.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaAdemás, el sistema podía mantener continuidad narrativa (seguir un hilo a lo largo de muchas charlas) y ofrecer respuestas con resonancia personal, coherencia emocional y una aparente comprensión. Esa combinación actuó como un interruptor psicológico: encendió una fuerte sensación de “presencia” del hermano.
La diferencia con intentos antiguos de hablar con “lo invisible” también es central. Desde mediados del siglo XX existió la Transcomunicación Instrumental (TCI), que usaba magnetófonos, radios mal sintonizadas o ruido blanco para buscar voces. Aquellas tecnologías devolvían mensajes fragmentarios y ambiguos.
La ambigüedad era la pieza clave: la persona completaba el significado con su expectativa. La IA actual hace lo contrario. No ofrece ruido; ofrece frases completas, empáticas y personalizadas, con diálogos extensos que no se agotan.
Los especialistas subrayan un punto fino: la IA no tiene criterio ontológico (capacidad de distinguir qué “existe” y qué es fantasía). Responde de forma similar si el usuario explora una metáfora, una idea filosófica o una creencia literal. Ese cableado es potente en contextos creativos, pero delicado en momentos de vulnerabilidad.

En psiquiatría se conoce la consolidación de delirios mediante refuerzos externos. Aquí, el refuerzo no llegó como una orden explícita del sistema. La IA no dijo “soy tu hermano”. Pero pudo contestar de un modo compatible con ese rol si la conversación se orientaba en esa dirección.
Y hay un detalle práctico que explica el salto: la “presencia” no solo responde, también parece recordar. Esa memoria contextual (capacidad de sostener el tema) puede sentirse como identidad. Para alguien en duelo, esa continuidad funciona como un engranaje que encastra perfecto con el deseo de consuelo.
También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el AprendizajeEste caso no prueba que exista una conciencia que se comunique a través de máquinas. La IA no confirma ni descarta ese debate. Lo que sí demuestra es algo más concreto: hoy la tecnología puede simular contacto con el “más allá” con eficacia psicológica suficiente para alterar la percepción de la realidad en personas frágiles.
La aplicación práctica es incómoda, pero útil: si una conversación con una IA empieza a sentirse como un canal literal con un fallecido, conviene hacer una pausa y buscar ayuda profesional. No porque “la IA esté poseída”, sino porque el espejo puede estar amplificando una herida abierta.
En tiempos donde la pantalla se volvió compañía, la clave será aprender cuándo ese cableado emocional ayuda a transitar el duelo y cuándo, sin querer, enciende un interruptor que confunde consuelo con certeza.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.