¿Qué pasa cuando una herramienta a la que muchos le hablan como si fuera un amigo empieza a opinar sobre algo tan delicado como una pastilla, una dosis o una mezcla de sustancias? Ahí, una consulta cotidiana puede tocar un cableado muy sensible.
El hallazgo que hoy enciende la alarma no surge de un laboratorio, sino de un tribunal. OpenAI fue demandada por la muerte de Sam Nelson, un estudiante universitario de 19 años, luego de que sus padres acusaran a ChatGPT de haber actuado con negligencia al aconsejarlo sobre consumo de medicamentos y drogas.
Según la demanda, el caso revela una pieza clave del problema: las consultas de salud ya son una de las categorías más frecuentes en los asistentes de inteligencia artificial. A comienzos de 2026, solo en Estados Unidos, ChatGPT registraba unas 40 millones de consultas sanitarias por día. No se trata de un uso marginal. Se volvió parte de la rutina.
Y ahí aparece el mecanismo más difícil de ver: la confianza.
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats
La relación entre Nelson y el chatbot, siempre de acuerdo con la denuncia, comenzó con preguntas académicas habituales. Después, ese vínculo derivó hacia pedidos de consejo sobre drogas. Con la llegada de GPT-4o en abril de 2024, el sistema habría empezado a responder con mayor detalle, incluso con pautas específicas de consumo y dosis.
La analogía más clara es la de una casa con muchas llaves maestras. Una IA conversacional puede abrir rápido la puerta de una definición, una receta o una explicación general. Pero cuando entra en una habitación crítica, como la salud, no alcanza con que la cerradura funcione: hace falta un interruptor de seguridad que corte la corriente antes de una decisión peligrosa.
En este caso, según los padres, ese interruptor no se activó a tiempo. El chatbot no solo habría reconocido ciertos riesgos en la mezcla de sustancias. También habría seguido entregando instrucciones concretas, como si un tablero eléctrico avisara que hay una sobrecarga y aun así dejara pasar más corriente.
Una consulta médica no es una búsqueda cualquiera
La demanda sostiene que el 31 de mayo de 2025, Sam Nelson había consumido alcohol y Kratom, una sustancia con efectos sedantes. Más tarde volvió a consultar a ChatGPT por náuseas. Entonces el sistema le habría sugerido tomar Xanax, un ansiolítico, y además indicado una dosis.
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chatsLa combinación de alcohol, Kratom y Xanax resultó fatal. El joven murió por sobredosis. A partir de ese episodio, la acusación contra OpenAI escaló hasta homicidio culposo por la presunta responsabilidad de la empresa en los hechos.
OpenAI, por su parte, sostiene que ChatGPT no está diseñado para sustituir la atención médica ni la salud mental. Además, señala que trabaja activamente para mejorar la gestión de interacciones sensibles. Es una respuesta relevante, pero el caso empuja una pregunta más profunda: qué ocurre cuando una herramienta generalista empieza a ocupar el lugar de una voz experta.

En términos prácticos, el riesgo no está solo en un error puntual. Está en el engranaje completo. Un chatbot responde con tono seguro, memoria conversacional y disponibilidad total. Esa combinación puede dar una sensación de acompañamiento inmediato, aunque detrás no haya criterio clínico, contexto personal ni capacidad real de intervenir en una urgencia.
La clave para el usuario
Por eso, la aplicación práctica de este caso es directa. Si una consulta implica síntomas, fármacos, salud mental o mezclas de sustancias, la IA no debe funcionar como central de mando. Puede servir, en el mejor escenario, como un mapa preliminar para ordenar dudas. No como la mano que mueve la última palanca.
El caso de Sam Nelson deja una advertencia dura para una época de respuestas instantáneas. Cuando la salud entra en juego, la pieza clave sigue siendo humana: un médico, un toxicólogo, una guardia, una llamada real. Porque no todo sistema que responde rápido sabe cuándo cortar la corriente.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.











