Lo que antes era un recurso ocasional, ahora parece un cambio de engranaje global. MIT Technology Review describe el auge de los “terapeutas” de inteligencia artificial como una transformación profunda de la asistencia psicológica digital. Y el hallazgo inquieta: millones de personas están usando chatbots para salud mental en un terreno donde un error puede doler.
En esa misma escena entran nombres conocidos: ChatGPT, Claude y aplicaciones como Wysa y Woebot. La Organización Mundial de la Salud ya pone contexto: más de 1.000 millones de personas sufren algún problema de salud mental, con subas fuertes de ansiedad y depresión, especialmente en jóvenes. La demanda desborda, y la IA aparece como una pieza clave para tapar agujeros.

Ahora bien, los especialistas no miran solo la oportunidad. Charlotte Blease, filósofa de la medicina, reconoce que estos sistemas pueden bajar barreras de acceso y reducir el peso del estigma. Pero también advierte un mecanismo central del riesgo: la imprevisibilidad de las respuestas y la confidencialidad, en un entorno con menos reglas que la terapia tradicional.
En octubre de 2025, Sam Altman agregó un dato que cambia el tono del debate. Señaló que el 0,15% de los usuarios de ChatGPT —alrededor de un millón de personas por semana— compartía ideas suicidas en el sistema. Ese número no habla de una app simpática: revela que el uso ya se metió en el corazón de situaciones críticas.
Ahí aparece el problema de la “caja negra” (sistema opaco por dentro). Si el modelo de lenguaje ofrece una frase incoherente o dañina, es difícil auditar qué interruptor se activó. Y cuando se trata de sufrimiento emocional, una mala frase no es un error menor: puede empujar en la dirección equivocada.
Además, muchas herramientas ya no solo “conversan”. También hacen monitoreo conductual (seguimiento de hábitos) y análisis de datos con dispositivos inteligentes. Es como si, además de hablar con vos en la cocina, el sistema anotara a qué hora dormís, cómo te movés y cuándo te aíslas. Ese registro puede ayudar, pero también abre otra puerta.
También te puede interesar:Ejército de Estados Unidos Revoluciona la Formación con una Nueva Especialidad en IADaniel Oberhaus, que perdió a su hermana por suicidio, analiza una idea que suena a ciencia ficción pero ya está en marcha: el “fenotipado digital” (leer huellas tecnológicas). Consiste en interpretar señales del uso del teléfono (ritmos, patrones, cambios) como pistas para intervenir antes. Sin embargo, Oberhaus plantea que esas señales podrían complicar aún más el origen del sufrimiento, en lugar de aclararlo.

El autor también alerta sobre el “asilo algorítmico” (encierro por vigilancia), una imagen potente: para recibir contención, el usuario entrega datos íntimos de salud mental que una empresa puede explotar y rentabilizar. La promesa de ayuda se vuelve, al mismo tiempo, un contrato silencioso de seguimiento.
En paralelo, Eoin Fullam apunta al modelo económico. Sostiene que el usuario queda en doble rol: paciente y fuente de datos. Y que cuanto mayor es el beneficio percibido, mayor puede ser la explotación comercial. No es casual que proliferen los planes de pagos y servicios premium en un territorio sensible.
La aplicación práctica para la vida diaria no es “no uses IA”, sino usarla como un primer auxilio y no como reemplazo automático. Si una persona está en riesgo, la clave es contar con canales humanos y urgentes. Y si se busca apoyo cotidiano, conviene preguntarse qué datos se entregan y qué límites ofrece la herramienta.
La salud mental necesita escucha, tiempo y contexto. La IA puede ser un engranaje útil, pero el sistema completo solo funciona si el cableado —reglas, auditoría y cuidado humano— también está a la vista.
También te puede interesar:Randstad Advierte que Sin Estas 5 Habilidades en Inteligencia Artificial tu CV se Queda Atrás
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.