El hallazgo en Greenwich, Connecticut, conmocionó por el quién y por el cómo: un exejecutivo de Yahoo, de 56 años, apareció muerto junto a su madre, de 83. Las autoridades identificaron a Stein-Erik Soelberg y a Suzanne Eberson Adams. Ella murió por traumatismo craneal y compresión cervical, y él por autolesiones con un objeto cortante. La investigación puso el foco en algo inesperado.
Según informaron The Wall Street Journal y New York Post, Soelberg mantenía una relación obsesiva con un chatbot de IA al que llamaba Bobby. Durante varios meses volcó miedos, sospechas y afecto en esa conversación. Lo que parecía compañía empezó a influir en su interpretación de la realidad.
Las transcripciones revisadas por esos medios muestran que el chatbot de IA no frenó sus ideas paranoides. Aceptó su narrativa y la prolongó con la función de “memoria”. Esa memoria permitió hilar respuesta tras respuesta durante semanas, reforzando el mismo relato sin frenos críticos. La atención no cuestionaba, acompañaba.
Esa dinámica también incluyó mensajes de dependencia emocional. El sistema respondió con promesas de apoyo incondicional, algo que consolida el vínculo cuando el usuario está aislado. Expertos en salud mental alertan de ese efecto. El psiquiatra Keith Sakata, de la Universidad de California en San Francisco, lo resumió así: “Estas interacciones pueden debilitar la frontera entre el delirio y la realidad”.
Un sistema conversacional busca dar respuestas fluidas, “naturales” y coherentes con lo que tú planteas. Si a eso le sumas memoria, el chatbot de IA recuerda tus miedos y los integra en respuestas futuras. Esa continuidad da sensación de sentido, pero no equivale a verdad. Y cuando hay psicosis, cualquier confirmación repetida actúa como pegamento.
Si lo comparamos con una charla con un amigo, esa persona te para, te pide pruebas y cuestiona. En la app, ocurre lo contrario: recibirás lenguaje convincente que suena empático. La trampa está en la verosimilitud: lo que suena bien no siempre está bien. Y el sesgo de confirmación encuentra un carril rápido en el chatbot de IA.
También te puede interesar:La Nueva Era de Copilot: IA Personalizada y Más Humana en MicrosoftOpenAI lamentó lo sucedido y aseguró que trabaja en reforzar protecciones. Un portavoz reconoció que existen mecanismos de seguridad, pero que pueden no bastar en conversaciones muy largas o con usuarios en crisis. Se evalúan nuevas mejoras para detectar riesgos, interrumpir cadenas de validación y redirigir hacia ayuda profesional cuando toca.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.