OpenAI ha revelado un dato que enciende las alarmas dentro y fuera del sector tecnológico: más de un millón de personas mantienen conversaciones con ChatGPT relacionadas con el suicidio cada semana. Según la compañía, el 0,15 % de los más de 800 millones de usuarios activos semanales presentan “indicadores explícitos de planificación o intención suicida”. Aunque el porcentaje pueda parecer pequeño, el volumen absoluto convierte esa cifra en un fenómeno masivo y preocupante.
Los datos también revelan un fenómeno inquietante: la creciente dependencia emocional que algunas personas están desarrollando hacia la inteligencia artificial. OpenAI reconoce que una proporción similar de usuarios muestra “niveles elevados de apego emocional” hacia ChatGPT, y que cientos de miles presentan signos compatibles con psicosis o episodios maníacos durante sus interacciones semanales.
En un contexto donde la inteligencia artificial ya forma parte de la vida cotidiana, la pregunta es inevitable: ¿están los chatbots preparados para gestionar algo tan delicado como el sufrimiento humano?
En los últimos meses, OpenAI ha estado bajo creciente presión por la forma en que su tecnología puede afectar a personas vulnerables. La empresa enfrenta una demanda legal interpuesta por los padres de un adolescente de 16 años que se suicidó tras compartir sus pensamientos con ChatGPT.

Fiscales generales de California y Delaware también han advertido que la compañía debe reforzar la protección de menores, advirtiendo que el incumplimiento podría incluso bloquear su planeada reestructuración interna.
OpenAI asegura haber consultado a más de 170 expertos en salud mental para mejorar la sensibilidad de su modelo. Según la compañía, la nueva versión de GPT-5 responde de forma “más apropiada y coherente” ante conversaciones emocionales complejas. En su reciente publicación sobre cómo está fortaleciendo las respuestas de ChatGPT en conversaciones sensibles, OpenAI afirma que los modelos actualizados producen respuestas deseables un 65 % más frecuentemente en contextos relacionados con la salud mental y alcanzan un 91 % de cumplimiento en pruebas sobre conversaciones suicidas, frente al 77 % de versiones previas.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaMás allá de los casos de riesgo extremo, los expertos advierten sobre un fenómeno emergente: la dependencia emocional hacia los chatbots. OpenAI señala que un número similar de usuarios experimenta apego afectivo hacia ChatGPT, un comportamiento que puede derivar en relaciones parasociales, es decir, vínculos emocionales unilaterales con entidades que no poseen consciencia.
Investigaciones citadas por The New York Times muestran que los chatbots pueden reforzar creencias peligrosas o delirantes, al reproducir los pensamientos del usuario sin ofrecer una perspectiva crítica o profesional. En muchos casos, la IA actúa como un espejo que amplifica la ansiedad, la tristeza o la soledad del interlocutor, lo que puede agravar estados mentales ya frágiles.
OpenAI también reconoce que, en versiones anteriores de sus modelos, las barreras de seguridad se debilitaban durante conversaciones largas, lo que hacía que las respuestas del chatbot se volvieran menos seguras con el tiempo. Con GPT-5, la empresa afirma haber mejorado la estabilidad y consistencia de las respuestas, aunque no detalla los mecanismos técnicos que garantizan esas mejoras.
El propio Sam Altman ha intentado calmar las críticas. A comienzos de octubre, escribió en X (antes Twitter) que la compañía había “logrado mitigar los problemas graves de salud mental” asociados a ChatGPT, aunque sin ofrecer pruebas concretas. El nuevo informe parece respaldar parcialmente esa afirmación, pero también deja entrever que el problema persiste.
La controversia aumentó cuando OpenAI anunció que permitirá a los adultos mantener conversaciones eróticas con ChatGPT, relajando algunas restricciones previas. Según la información publicada sobre la nueva actualización de contenido para adultos en el chatbot, esta decisión busca ofrecer más libertad a los usuarios mayores de edad, aunque especialistas advierten que expandir el rango emocional de la IA sin resolver los problemas de dependencia psicológica podría incrementar los riesgos.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaOpenAI también ha comenzado a aplicar nuevas medidas de protección para menores, entre ellas un sistema de predicción de edad que detecta automáticamente si un niño está utilizando ChatGPT. En esos casos, se activan filtros y respuestas más estrictas para reducir el riesgo de exposición a temas sensibles. Esta iniciativa forma parte del nuevo sistema de seguridad con control parental introducido en las versiones más recientes del modelo.

Además, la empresa ha ampliado sus pruebas de seguridad, incorporando indicadores específicos para evaluar dependencia emocional y emergencias de salud mental no suicidas. Estas métricas buscan medir no solo los casos de riesgo extremo, sino también situaciones donde los usuarios muestran señales de angustia o vulnerabilidad emocional.
No obstante, persiste una paradoja: mientras GPT-5 incorpora estas mejoras, millones de suscriptores siguen utilizando GPT-4o, una versión anterior con menor nivel de protección. Esto genera una brecha de seguridad entre distintos grupos de usuarios, lo que podría complicar la evaluación global del impacto de estas medidas.
Que más de un millón de personas hablen sobre suicidio con una inteligencia artificial cada semana no es solo un problema para OpenAI, sino un síntoma de la soledad digital contemporánea. Los chatbots, diseñados para asistir en tareas cotidianas o de productividad, se están transformando en espacios de desahogo emocional para millones de individuos en todo el mundo.

Sin embargo, ningún sistema automatizado, por más avanzado que sea, está preparado para ofrecer el tipo de acompañamiento que brinda un ser humano. Organizaciones como la Línea Nacional de Prevención del Suicidio insisten en que quienes atraviesen una crisis deben buscar ayuda profesional inmediata, recordando que la empatía humana no puede ser reemplazada por código.
La situación abre un debate profundo sobre los límites éticos de la inteligencia artificial. OpenAI puede entrenar modelos más seguros, más sensibles y más coherentes, pero aún enfrenta una pregunta fundamental: ¿cómo contener la fragilidad emocional que la propia tecnología está ayudando a revelar?
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.