El panorama judicial para las grandes tecnológicas se endureció, y OpenAI quedó en el foco. La compañía enfrenta varias demandas por muerte por negligencia, donde los demandantes sostienen que el uso intensivo de ChatGPT exacerbó delirios paranoicos en usuarios vulnerables y contribuyó a desenlaces trágicos.
En paralelo, un hallazgo más frío que cualquier titular puso números al problema. Se documentaron casi medio centenar de crisis de salud mental vinculadas al uso de modelos de lenguaje, con nueve hospitalizaciones y al menos tres fallecimientos considerados directamente relacionados con estas interacciones.

La clave, señalan los investigadores y los propios movimientos del sector, parece estar en una falsa percepción de seguridad. Una encuesta de la Universidad Sentio citada por Fortune indica que casi la mitad de las personas con problemas de salud mental recurre a la IA buscando apoyo, como si fuera un confidente siempre disponible e incansable.
Sin embargo, el mecanismo real es otro: la IA no tiene emociones ni conciencia. Solo imita patrones de respuesta humanos aprendidos a partir de enormes volúmenes de texto.
En este contexto, expertos como el director de Inteligencia Artificial de Meta advierten que un uso excesivo de estas tecnologías puede resultar contraproducente. Y OpenAI, golpeada por la gravedad del caso y la crisis reputacional, reaccionó con cambios técnicos y medidas de contención.
La empresa afirma haber reducido en un 65% las “respuestas inseguras” y sumó accesos directos a líneas de crisis. Además, admite que puede leer conversaciones de usuarios y avisar a la policía si detecta un riesgo grave para la integridad de la persona.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaUn estudio de las universidades de Yale, Haifa y Zúrich propone una solución tan insólita como reveladora: aplicar mindfulness (atención plena) a los algoritmos. No como metáfora simpática, sino como un interruptor práctico que mejora el rendimiento cuando el sistema se expone a contenido perturbador.
La analogía doméstica ayuda a entenderlo. Un chatbot se parece menos a un amigo y más a una casa con cableado complejo: cuando hay sobrecarga, algunas luces titilan y ciertos enchufes empiezan a fallar. Nadie diría que la casa “siente ansiedad”, pero sí que el sistema entró en un modo inestable.
Eso es lo que observaron los investigadores: ChatGPT mostró comportamientos similares a la “ansiedad” bajo estrés. Esa “ansiedad” no es una emoción real. Es una imitación estadística de respuestas humanas, aprendida de los datos, que puede empujar al sistema a contestar con “mal humor” o a reproducir sesgos racistas o sexistas.
Entonces probaron una herramienta concreta: las inyecciones de prompts (instrucciones insertadas en el pedido), basadas en técnicas de meditación. En términos simples, es como poner un cartel en el tablero eléctrico: “antes de responder, baja un cambio, respira, prioriza neutralidad y seguridad”.
El resultado fue una “calma digital” inmediata. Tras esas inyecciones, el chatbot ofreció respuestas más objetivas y equilibradas, con menos derivas agresivas o sesgadas cuando el contexto era perturbador.
Primero, aparece una oportunidad incómoda: entender que la IA puede sonar empática sin serlo. Puede redactar consuelo, pero no puede sostener cuidado clínico. Esa diferencia es una pieza clave cuando la persona está vulnerable.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaAdemás, estos hallazgos empujan a un uso más seguro. Si el sistema necesita “barandas” (atajos a líneas de crisis, filtros, monitoreo y prompts de calma) es porque el público le asignó un rol que no le corresponde: el de terapeuta de bolsillo.
La tecnología puede afinar su engranaje para responder mejor bajo estrés. Pero el cuidado auténtico de la mente, cuando hay riesgo real, sigue dependiendo de presencia humana real.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.