Jon Hernández, divulgador de Inteligencia Artificial muy seguido en redes, lanzó una advertencia clara en el podcast Roca Project: cuidado con usar chatbots como “terapeutas” cuando hay problemas reales. Importa porque cada vez más gente abre ChatGPT en momentos delicados y, aunque la conversación suene cercana, falta un detalle que condiciona todo. Falta responsabilidad real.
En esa entrevista, Hernández fue directo con un punto: si tienes ansiedad, depresión o duelo, usar un bot como si fuera un psicólogo te pone en riesgo. Habló de herramientas como ChatGPT, disponibles 24/7 y con respuestas en segundos, pero planteó un límite que no puedes ignorar si te juegas tu estabilidad.
Según su análisis, los modelos actuales no están diseñados ni entrenados para dar soporte clínico profesional. Lo que hoy tenemos no es una consulta, es una simulación de conversación sin garantías de seguridad ni seguimiento. Aquí está la trampa: cuando algo sale mal, ¿quién asume la responsabilidad? Nadie te va a acompañar luego a una revisión o a una urgencia.
Hernández reconoce por qué engancha: cuando hablas con un modelo grande de lenguaje, tu cerebro procesa esa voz como “humana”. Psicológicamente, es parecido a conversar por teléfono con alguien real. Ese parecido puede calmar a algunas personas a corto plazo y ofrecer compañía inmediata. Esa cercanía percibida no convierte a la IA en un tratamiento.
¿Hay futuro para la IA para salud mental? Hernández no lo descarta. De hecho, abre una puerta interesante: soluciones específicas y con control profesional de verdad. Imagina una “Psychologist AI” auditada, con protocolos, métricas de seguridad y psicólogos que revisan, intervienen y corrigen. Si algún día esa app existe, será porque un equipo clínico la supervisa y la respalda con evidencia.
¿Qué puedes hacer mientras tanto? Si recurres a un bot para desahogarte, úsalo como apoyo puntual y solo para información general. Si notas señales de alarma, toca otra vía rápido. Tres pistas prácticas:
También te puede interesar:La Evolución de la IA en Medicina: ChatGPT Y Curación de Enfermedades para el 2035Hernández admite que la inmediatez ayuda cuando te sientes solo, y que a algunas personas les aporta un alivio breve. Con todo, insiste en el límite que no debes cruzar: la IA nunca debe sustituir a un profesional de salud mental. Si ves en los próximos meses anuncios de pilotos con hospitales, auditorías independientes o guías de colegios profesionales, ahí tendrás señales de progreso real.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.