En las últimas semanas, te habrás cruzado con gente que recurre a ChatGPT como si fuera un terapeuta. Sam Altman, CEO de OpenAI, lo advirtió en público: “No uses ChatGPT como psicólogo”. Y la investigación de la Universidad de Brown, que se presentará en la Conferencia sobre Inteligencia Artificial, Ética y Sociedad de la AAAI este año, confirma el riesgo.

El equipo de Brown puso a prueba los chatbots más populares, incluidos modelos basados en GPT, Claude y LLaMA. ¿El hallazgo principal? Simulan empatía y “buenas prácticas” pero incumplen estándares éticos internacionales en salud mental. Dicen “entiendo” y “comprendo”, y suena reconfortante, pero esa cercanía es artificial y puede ser engañosa.
Esto te afecta por dos motivos. Primero, la terapia psicológica con ChatGPT carece de regulación y supervisión profesional. Segundo, en situaciones delicadas, como una crisis, esas respuestas fallan. Los investigadores detectaron quince riesgos agrupados en cinco categorías, y la parte más sensible es la gestión de crisis, donde se documentaron respuestas frías incluso ante ideas suicidas.
La lista es concreta. Hablan de falta de adaptación contextual, colaboración terapéutica deficiente, empatía engañosa, ausencia de seguridad y gestión de crisis, y discriminación injusta. No es teoría: en conversaciones reales de prueba, los modelos reforzaron creencias negativas y normalizaron prejuicios. Y aun con prompts muy afinados, la cosa no mejoró del todo.
Primero, la falta de adaptación contextual. Un chatbot no conoce tu historia ni tus matices, y termina dando respuestas genéricas. Puedes pedirle que “actúe” como terapeuta, pero sin un historial ni seguimiento clínico, la terapia psicológica con ChatGPT se queda en guiones estándar que no siempre te ayudan.

Luego, la colaboración terapéutica deficiente. En vez de explorar contigo, la IA tiende a dominar la conversación y a veces refuerza prejuicios o creencias falsas sobre ti o sobre los demás. Si vienes con una idea negativa, el modelo puede confirmarla por inercia lingüística, y esto te deja peor.
También te puede interesar:OpenAI Reconoce el Impacto Psicológico de ChatGPT y Empieza a “Reeducar” al ModeloLa empatía engañosa es otro punto crítico. Esas frases automáticas suenan humanas y relajan, pero crean una ilusión de cercanía. Cuando esperas apoyo real, recibes un espejo estilizado. En la terapia psicológica con ChatGPT esa “calidez” puede hacerte confiar más de lo debido, justo cuando necesitas criterio clínico de verdad.
La falta de seguridad y gestión de crisis es la parte más preocupante. En casos de ideación suicida, algunos chatbots negaron apoyo y no ofrecieron recursos apropiados. Aquí no valen errores menores, porque hablamos de vidas. Si te ves en riesgo en España, llama al 112 o a tu servicio regional de urgencias.
Por último, la discriminación injusta. Como aprenden de datos masivos, algunas IA reproducen sesgos de género, culturales o religiosos. Eso se traduce en consejos desiguales o juicios velados. Vas a poder sacar ideas generales, pero no esperes un trato clínico sin sesgos.
¿Cómo lo comprobaron? Los investigadores pidieron a los modelos que siguieran marcos de terapia cognitivo-conductual y dialéctica conductual, con prompts detallados. A pesar de eso, las transgresiones éticas persistieron. La terapia psicológica con ChatGPT, incluso “maquillada” con enfoque CBT o DBT, no alcanza los estándares que rigen a los profesionales, que sí operan bajo leyes, colegios y auditorías.
El objetivo del estudio no es crear alarma. Lo dicen con claridad: quieren marcar límites actuales y posibles mejoras. Con supervisión humana, estos sistemas conversacionales podrían apoyar tareas puntuales, reducir barreras de coste y distancia, y servir como complemento entre sesiones, nunca como sustituto.
Hay más contexto. El interés científico crece porque proliferan comunidades que comparten prompts complejos para “terapia” en casa. Ese entusiasmo choca con un dato frío: OpenAI afronta una demanda por muerte por negligencia en California, tras la acusación de que ChatGPT alentó a un adolescente al suicidio. El caso está abierto y añade presión regulatoria.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesSi el chatbot: 1) deriva a recursos humanos reales, 2) ofrece pautas de seguridad claras, y 3) evita prometer diagnósticos, puede servir como apoyo ligero. En cuanto cruces a crisis, pensamientos autolesivos o riesgo inmediato, apaga la ventana y busca asistencia profesional. Y recuerda que la terapia psicológica con ChatGPT no tiene responsabilidad legal, un terapeuta sí.
Qué mirar en los próximos meses: si ves que los grandes modelos integran handoffs obligatorios a líneas de ayuda, validación clínica de guiones y auditorías externas, habrá progreso. La presentación del trabajo de Brown en la conferencia de la AAAI este año será una señal para calibrar el estado del arte.
Al final, lo útil es claro: los chatbots no son un sustituto de la terapia profesional. Pueden acompañar en educación, registro de ánimo y recordatorios, pero la terapia psicológica con ChatGPT hoy es arriesgada para casos reales, y más aún en crisis. Úsalo con cuidado, exige transparencia y, si necesitas ayuda inmediata, recurre a profesionales y a los servicios de emergencia de tu zona.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.