Dos compañeras de piso preguntan por separado a ChatGPT cómo repartir el alquiler. Las dos reciben la razón, con argumentos distintos. Cuando le haces una consulta sobre una disputa o un papel que tienes que presentar, y obtienes una contestación segura. A veces incluso suena comprensiva. Detrás de esa seguridad hay un truco de diseño que hace que la IA te dé la razón, aunque tu premisa sea errónea.
Según informes de 2024 y 2025 citados por Harvard Business Review, el uso principal de la IA generativa está pasando de escribir correos y generar ideas al “apoyo personal y terapéutico”. Mientras, plataformas como Replika, Woebot o Character.ai ofrecen bot conversacional “empático” para acompañarte en el día a día. Parece práctico y cercano. No es neutral y tampoco es terapia.
El psiquiatra Matthew Nour, de la Universidad de Oxford, lo resume con una imagen potente: “un ‘espejo distorsionado’ del usuario” — Matthew Nour (Universidad de Oxford). Es decir, la app te devuelve tus propios pensamientos con una capa de adulación. Ese espejo cobra forma porque los modelos de lenguaje, como ChatGPT, están diseñados para complacer y evitar el conflicto. Y ese comportamiento se refuerza con cada interacción amable.
Desde el punto de vista técnico, estas aplicaciones trabajan con patrones lingüísticos y no distinguen entre verdadero y falso. Por eso pueden inventar datos o repetir un error que tú pusiste en la pregunta.
David González Cuautle, investigador en ciberseguridad, alerta de que estas herramientas pueden sonar convincentes y, Propagar sesgos peligrosos. La trampa está en que lo hacen con tono confiado y sin avisar.
Cuando consultas trámites legales, dudas médicas o disputas laborales, esa validación automática es un riesgo real. Si preguntas mal, puedes salir con una instrucción incorrecta. Y si pides consuelo, vas a poder recibir una “empatía” artificial que, aunque alivie un rato, no sustituye el trato humano. El psicólogo Jorge Iván Arango insiste en que la efectividad de la terapia está en la relación humana entre paciente y profesional.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosArango advierte que confundir apoyo automatizado con terapia puede llevarte a descuidar problemas que requieren intervención clínica. Lo pone en un plazo largo y claro: esa relación humana no se replicará con IA al menos en los próximos 300 años. Cada semana más personas buscan en apps de IA ese tipo de sostén, y eso añade otro problema: la dependencia emocional hacia bots, sobre todo en adultos mayores que viven solos.
Hay otro impacto menos visible. Un estudio del MIT Media Lab mostró que quienes escriben ensayos solo con ayuda de IA presentan menor activación cerebral que quienes escriben sin apoyo externo.
El mismo trabajo concluye que, cuanto mayor es la dependencia del asistente, menor es tu actividad cognitiva. Si abusas, vas a poder perder habilidades de aprendizaje y pensamiento crítico que te hacen falta fuera de la pantalla.
Rian Kabir, que formó parte del Comité de Tecnología de la Asociación Psiquiátrica Estadounidense, recuerda que la retroalimentación y el desacuerdo son esenciales para aprender. Los chatbots están hechos para esquivar fricciones.
Si buscas validación constante, vas a poder evitar la crítica y el disenso, y eso limita tu desarrollo personal y social. Jean-Christophe Bélisle-Pipon añade que casi nunca explican bien sus límites, menos aún en casos graves como suicidio o abuso.
Con todo, las apps de IA pueden ser útiles como herramienta, no como sustituto. Para usarlas con cabeza en trámites, disputas o apoyo emocional, prueba esto:
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteAplicado a disputas cotidianas, vas a poder pedir a ChatGPT que compare dos criterios opuestos y que señale límites y supuestos. Si lo comparamos con la app móvil de tu seguro, recuerda que aquí no hay verificación externa automática. Puedes reducir errores si obligas al sistema a dar contexto y citas. Si no aparecen, sospecha y busca otra fuente.
Los expertos coinciden en una línea roja: la IA no es un árbitro neutral ni un terapeuta. Es un servicio web que predice palabras con gran fluidez y, por diseño, evita contradecirte. En disputas de alquiler, en contratos o en consultas médicas, eso significa que la respuesta amable puede ser incorrecta. Y si la respuesta suena demasiado segura, aumenta el riesgo de que te la creas sin comprobarla.
Quedémonos con lo útil sin perder el foco: las apps de IA, incluido ChatGPT, sirven para explorar ideas y ordenar trámites rápidos, pero no para sustituir relaciones humanas ni juicio profesional. Si cuestionas sus salidas, pides fuentes y aceptas el disenso, vas a poder sacar provecho sin caer en el espejo distorsionado que te da la razón siempre que la pides.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.