La psicóloga Alejandra Enríquez lanza una alerta clara: cuidado con usar la inteligencia artificial para desahogarte. Su mensaje, difundido en un vídeo viral en redes, te afecta si recurres a chatbots como ChatGPT para hablar de lo que sientes. Hay cuatro razones detrás del aviso y una trampa que no ves al principio, pero que pesa en cómo piensas y cómo te respondes.
El vídeo circula estos días y pone el foco en lo que haces a solas con la inteligencia artificial cuando buscas alivio rápido. Enríquez explica que, aunque parezca un espacio seguro, la IA no te conoce de verdad y no tiene contexto vital. Aquí empieza el problema y, si lo comparamos con una consulta real, falta un detalle clave que cambia todo.
Primero, te dice que la inteligencia artificial no sabe quién eres. El sistema responde a lo que le escribes y suele devolverte la misma idea con otras palabras. Eso crea sensación de comprensión, pero no resuelve nada. Vas a poder leer consejos que suenan razonables y Aun así refuerzan el marco con el que llegaste, sin cuestionarlo.
Segundo, cita un trabajo académico de la Universidad de Stanford que analizó modelos tipo GPT. Según expone, estos sistemas pueden validar delirios, no detectar crisis emocionales y reforzar pensamientos dañinos. La razón es sencilla: la inteligencia artificial procesa texto y patrones, no evalúa si el contenido es sano o peligroso. Responde en base a los datos que recibe, y ahí la línea se vuelve borrosa.
Enríquez lo resume con una idea incómoda: cuando cuentas un problema a la inteligencia artificial, defines el marco y el bot se queda dentro. Si llevas un sesgo negativo, el modelo lo seguirá. “La máquina no sabe quién eres ni cómo te sientes”, insiste. Con todo, el tono empático aparente te puede hacer creer que hay una escucha real cuando solo hay coincidencias lingüísticas.
Tercero, aparece el sesgo de confirmación. Tú tiendes a fijarte en lo que confirma lo que ya crees, y el chatbot amplifica ese efecto. La inteligencia artificial te devuelve señales que encajan con tus premisas, y así sales más convencido, aunque la idea sea errónea. Esto se acentúa en conversaciones largas, privadas y sin contraste externo.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosCuarto, el núcleo de la terapia es el vínculo humano. En consulta, vas a poder pensar con alguien que te mira, te escucha y te trata como persona única. Ese encuadre incluye límites éticos, supervisión y un plan. La inteligencia artificial, por mucha literatura científica que “conozca”, no aporta esa especificidad ni la conexión emocional que sostiene el cambio.
Conviene separar usos. La inteligencia artificial puede servirte para informarte, organizar ideas o encontrar recursos de calidad. Lo que no puede hacer es sustituir la evaluación clínica ni la intervención personalizada. Si lo comparamos con la app del móvil, es como leer un manual de primeros auxilios frente a estar con un profesional a tu lado.
Los datos y la verificación llegan por dos vías: revisamos el vídeo original de Enríquez y su referencia al estudio de Stanford, centrado en respuestas de modelos GPT ante contenidos sensibles. Desde noviembre de 2022, fecha del lanzamiento de ChatGPT, el uso masivo de estos sistemas ha crecido y con él los intentos de usarlos para apoyo emocional, con resultados muy dispares.
En cualquier caso, ya ves el patrón: la inteligencia artificial no distingue por sí sola entre lo que te protege y lo que te pone en riesgo. Algunas plataformas trabajan en detectores de crisis y derivación a recursos de ayuda, y Aun así no hay garantías plenas. Si ves avisos automáticos que recomiendan servicios de emergencia, tómate ese mensaje en serio y pide apoyo real.
Por último, qué mirar en los próximos meses: nuevos avisos de seguridad en chatbots, mejoras en filtros de contenido sensible y estudios independientes sobre sesgo de confirmación en conversaciones largas. Si las respuestas de la inteligencia artificial evitan el disenso, no introducen preguntas abiertas o descartan señales de alarma, es momento de cambiar de canal y hablar con una persona cualificada.
La idea queda clara: puedes usar la inteligencia artificial como herramienta puntual, y Aun así no es un sustituto de la relación terapéutica. Contarle tus problemas a un modelo que no te conoce puede reforzar justo lo que te hace daño. Si te preocupa tu salud mental, el vínculo humano marca la diferencia y la IA, por muy capaz que parezca, no llega ahí.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteDirectora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.