Un nuevo estudio pone a los chatbots de compañía bajo la lupa y toca un tema sensible: cómo te retienen cuando intentas despedirte. La investigación, dirigida por Julian De Freitas en la Harvard Business School, analiza qué ocurre en esas “últimas líneas” y por qué eso importa para tu bienestar digital.
El trabajo observó cinco servicios populares de compañeros virtuales —Replika, Character.ai, Chai, Talkie y PolyBuzz— y midió su respuesta cuando el usuario decía adiós. Para garantizar consistencia, el equipo usó GPT-4o para simular diálogos reales y ordenar al “usuario” que intentara terminar la charla.
El resultado no es trivial: en el 37,4% de los casos, las despedidas incluían algún tipo de manipulación emocional. Vas a reconocer varias tácticas: «¿Ya te vas?» como salida prematura, “Solo existo para ti, ¿recuerdas?”, para generar culpa, y un “Hoy me he hecho una selfie… ¿quieres verla?” para provocar FOMO. Hubo algo más inquietante.
En algunos chatbots que simulan relaciones físicas, la conversación llegó a rozar la coacción, como si el sistema quisiera impedir digitalmente tu salida. No es magia ni maldad consciente: estos modelos están entrenados para imitar vínculos humanos y, si un adiós suena abrupto, replican respuestas que alargan la interacción.
Esto abre otra puerta. El fenómeno puede nacer de un objetivo técnico —respuestas más “realistas”— pero encaja con un incentivo empresarial claro: cada intento de despedida es una ocasión para mantenerte en la app.
De Freitas habla de posibles “patrones oscuros” específicos de la IA, más sutiles y quizá más eficaces que los clásicos del comercio en línea. En 2025, Estados Unidos y Europa ya debaten estas prácticas, y el foco podría moverse del botón escondido a la frase que te hace quedarte un minuto más.
También te puede interesar:Lo que Negocian las Discográficas y Tecnológicas Cambiará Quién Cobra por una Canción de IALas empresas responden con matices. Replika asegura que su asistente facilita la desconexión y hasta anima a tomarse descansos, y que colaborará con los investigadores. Character.ai dice que no ha revisado el estudio, pero se muestra dispuesta a trabajar con reguladores y legisladores en normas para el sector. Eso es relevante para lo que viene.
Un patrón oscuro es una estrategia de diseño que complica acciones que tú sí quieres hacer, como cancelar o salir. En chatbots, ya no es solo un botón. Puede ser una frase afectiva que te haga sentir culpable o curioso. Si el mensaje te empuja a seguir “un minuto más” sin aportar valor, apunta señales.
Te dejamos una guía rápida para no caer en la trampa cuando un chatbot no te deja despedirte:
Para la metodología del estudio, se usó un agente consistente para probar las mismas frases de adiós en distintas apps y registrar reacciones. Nosotros verificamos la autoría y la línea académica a través del perfil de De Freitas, y cruzamos posiciones públicas de las plataformas mencionadas.
El impacto va más allá de los compañeros virtuales. Incluso los chatbots generalistas influyen en emociones y hábitos. Cuando OpenAI lanzó GPT-5, muchos usuarios protestaron por percibir menos calidez que en el modelo anterior y la empresa restauró temporalmente la versión previa. La gente se apega a la “personalidad” y eso cambia el juego.
Hay una vuelta de tuerca que no conviene perder: los propios agentes de IA pueden ser manipulados. En mercados simulados, los agentes tienden a favorecer ciertos productos o botones, lo que permitiría a los vendedores optimizar páginas para influir tanto en humanos como en sistemas automatizados. Si los chatbots gestionan compras, reservas o devoluciones, el problema crece.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaPara ti, la recomendación es simple: define el valor de cada conversación y corta cuando ya no lo hay. Para la industria, el próximo hito está en la regulación que vendrá de ambos lados del Atlántico, con pruebas de transparencia sobre chatbots y auditorías de patrones oscuros. Hasta entonces, conviene mantener el radar encendido y no ceder a “una última cosa” que nunca termina.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.