La psicóloga Alejandra Enríquez lanza una alerta clara: cuidado con usar la inteligencia artificial para desahogarte. Su mensaje, difundido en un vídeo viral en redes, te afecta si recurres a chatbots como ChatGPT para hablar de lo que sientes. Hay cuatro razones detrás del aviso y una trampa que no ves al principio, pero que pesa en cómo piensas y cómo te respondes.
El vídeo circula estos días y pone el foco en lo que haces a solas con la inteligencia artificial cuando buscas alivio rápido. Enríquez explica que, aunque parezca un espacio seguro, la IA no te conoce de verdad y no tiene contexto vital.
Primero, te dice que la inteligencia artificial no sabe quién eres. El sistema responde a lo que le escribes y suele devolverte la misma idea con otras palabras. Eso crea sensación de comprensión, pero no resuelve nada. Vas a poder leer consejos que suenan razonables y Aun así refuerzan el marco con el que llegaste, sin cuestionarlo.
Segundo, cita un trabajo académico de la Universidad de Stanford que analizó modelos tipo GPT. Según expone, estos sistemas pueden validar delirios, no detectar crisis emocionales y reforzar pensamientos dañinos. La razón es sencilla: la inteligencia artificial procesa texto y patrones, no evalúa si el contenido es sano o peligroso. Responde con base a los datos que recibe, y ahí la línea se vuelve borrosa.
Cuando cuentas un problema a la inteligencia artificial, defines el marco y el bot se queda dentro. Si llevas un sesgo negativo, el modelo lo seguirá. “La máquina no sabe quién eres ni cómo te sientes”, insiste. Con todo, el tono empático aparente te puede hacer creer que hay una escucha real cuando solo hay coincidencias lingüísticas.
Tú tiendes a fijarte en lo que confirma lo que ya crees, y el chatbot amplifica ese efecto. La inteligencia artificial te devuelve señales que encajan con tus premisas, y así sales más convencido, aunque la idea sea errónea. Esto se acentúa en conversaciones largas, privadas y sin contraste externo.
También te puede interesar:El 90% de los Trabajadores ya Depende de la IA, Aunque sus Jefes no lo SepanEl núcleo de la terapia es el vínculo humano. En consulta, vas a poder pensar con alguien que te mira, te escucha y te trata como persona única. Ese encuadre incluye límites éticos, supervisión y un plan. La inteligencia artificial, por mucha literatura científica que “conozca”, no aporta esa especificidad ni la conexión emocional que sostiene el cambio.
Conviene separar usos. La inteligencia artificial puede servirte para informarte, organizar ideas o encontrar recursos de calidad. Lo que no puede hacer es sustituir la evaluación clínica ni la intervención personalizada. Si lo comparamos con la app del móvil, es como leer un manual de primeros auxilios frente a estar con un profesional a tu lado.
Los datos y la verificación llegan por dos vías: revisamos el vídeo original de Enríquez y su referencia al estudio de Stanford, centrado en respuestas de modelos GPT ante contenidos sensibles. Desde noviembre de 2022, fecha del lanzamiento de ChatGPT, el uso masivo de estos sistemas ha crecido y con él los intentos de usarlos para apoyo emocional, con resultados muy dispares.
En cualquier caso, ya ves el patrón: la inteligencia artificial no distingue por sí sola entre lo que te protege y lo que te pone en riesgo. Algunas plataformas trabajan en detectores de crisis y derivación a recursos de ayuda, y Aun así no hay garantías plenas. Si ves avisos automáticos que recomiendan servicios de emergencia, tómate ese mensaje en serio y pide apoyo real.
La idea queda clara: puedes usar la inteligencia artificial como herramienta puntual, y Aun así no es un sustituto de la relación terapéutica. Contarle tus problemas a un modelo que no te conoce puede reforzar justo lo que te hace daño. Si te preocupa tu salud mental, el vínculo humano marca la diferencia y la IA, por muy capaz que parezca, no llega ahí.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosDirectora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.