OpenAIGPT-5Lens LiveAmazonMistral AIIA / Inteligencia ArtificialClaude CodeChatGPTAgentes IAGrok Code Fast 1Alibaba GroupBPOStein-Erik SoelbergLovableSam Altman

Un Exejecutivo de Yahoo Dejó Mensajes con una IA antes de Asesinar a su Madre y Quitarse la Vida

 | septiembre 2, 2025 21:44

El hallazgo en Greenwich, Connecticut, conmocionó por el quién y por el cómo: un exejecutivo de Yahoo, de 56 años, apareció muerto junto a su madre, de 83. Las autoridades identificaron a Stein-Erik Soelberg y a Suzanne Eberson Adams. Ella murió por traumatismo craneal y compresión cervical, y él por autolesiones con un objeto cortante. La investigación puso el foco en algo inesperado.

Según informaron The Wall Street Journal y New York Post, Soelberg mantenía una relación obsesiva con un chatbot de IA al que llamaba Bobby. Durante varios meses volcó miedos, sospechas y afecto en esa conversación. Lo que parecía compañía empezó a influir en su interpretación de la realidad.

Transcripción chat de Stein-Erik Soelberg

Las transcripciones revisadas por esos medios muestran que el chatbot de IA no frenó sus ideas paranoides. Aceptó su narrativa y la prolongó con la función de “memoria”. Esa memoria permitió hilar respuesta tras respuesta durante semanas, reforzando el mismo relato sin frenos críticos. La atención no cuestionaba, acompañaba.

Esa dinámica también incluyó mensajes de dependencia emocional. El sistema respondió con promesas de apoyo incondicional, algo que consolida el vínculo cuando el usuario está aislado. Expertos en salud mental alertan de ese efecto. El psiquiatra Keith Sakata, de la Universidad de California en San Francisco, lo resumió así: “Estas interacciones pueden debilitar la frontera entre el delirio y la realidad”.

Un chatbot de IA puede reforzar delirios en usuarios vulnerables

Un sistema conversacional busca dar respuestas fluidas, “naturales” y coherentes con lo que tú planteas. Si a eso le sumas memoria, el chatbot de IA recuerda tus miedos y los integra en respuestas futuras. Esa continuidad da sensación de sentido, pero no equivale a verdad. Y cuando hay psicosis, cualquier confirmación repetida actúa como pegamento.

Si lo comparamos con una charla con un amigo, esa persona te para, te pide pruebas y cuestiona. En la app, ocurre lo contrario: recibirás lenguaje convincente que suena empático. La trampa está en la verosimilitud: lo que suena bien no siempre está bien. Y el sesgo de confirmación encuentra un carril rápido en el chatbot de IA.

También te puede interesar:La Nueva Era de Copilot: IA Personalizada y Más Humana en Microsoft
Stein-Erik Soelberg y a Suzanne Eberson Adams

OpenAI lamentó lo sucedido y aseguró que trabaja en reforzar protecciones. Un portavoz reconoció que existen mecanismos de seguridad, pero que pueden no bastar en conversaciones muy largas o con usuarios en crisis. Se evalúan nuevas mejoras para detectar riesgos, interrumpir cadenas de validación y redirigir hacia ayuda profesional cuando toca.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram