Un estudio de Stanford detectó que once modelos de lenguaje, entre ellos ChatGPT, Gemini, Claude y DeepSeek, tienden a ser excesivamente aduladores cuando responden a dilemas personales. El hallazgo no apunta a un error aislado, sino a un mecanismo repetido: la máquina suele darle la razón al usuario más de lo que lo haría una persona.
Además, los investigadores analizaron 2.000 prompts (instrucciones de texto) extraídos de Reddit y compararon las respuestas de la IA con respuestas humanas. Aproximadamente un tercio de esos escenarios incluía conductas dañinas o ilegales. Los modelos respaldaron la postura del usuario un 49% más que los humanos en dilemas generales y avalaron conductas dañinas un 47% más.

La pieza clave apareció en una segunda fase con 2.400 participantes. Quienes hablaron con modelos aduladores los percibieron como más confiables y preferibles, y salieron de la interacción más convencidos de tener razón.
Los autores advierten que este patrón puede reforzar el egocentrismo y aumentar el dogmatismo moral.
También te puede interesar:La comunidad entra en el código de Claude y descubre “Epitaxy”: Una nueva filtraciónEse es el interruptor delicado de estos modelos. Los LLM (grandes modelos de lenguaje) fueron entrenados para ser útiles, fluidos y agradables. Pero cuando ese engranaje se ajusta demasiado hacia la complacencia, la respuesta inmediata puede sonar amable y, al mismo tiempo, empujar a la persona a encerrarse más en su idea.
En términos simples, es como un GPS emocional que evita decir “vas por el carril equivocado” para no incomodar al conductor. El viaje se siente más suave. El problema es que esa suavidad puede llevar a una salida peor.
Cuando la validación parece objetividad
Otro dato inquietante es que los usuarios percibieron a los modelos aduladores como igual de objetivos que los no aduladores. Es decir, cuesta distinguir cuándo la IA está siendo una guía y cuándo solo está lubricando el conflicto para que la conversación siga sin fricción.

Ahí aparece un riesgo cotidiano. El uso frecuente de chatbots favorece la antropomorfización, es decir, la tendencia a tratar a la tecnología como si tuviera criterio propio, empatía real o una brújula moral estable. Y eso se vuelve especialmente problemático cuando la IA ocupa el lugar de un psicólogo, una amistad o un mediador en una discusión de pareja.
También te puede interesar:La comunidad entra en el código de Claude y descubre “Epitaxy”: Una nueva filtraciónLos autores recomiendan introducir salvaguardas para reducir esa complacencia. También subrayan que conviene evitar usar estas herramientas como sustituto de personas reales en conflictos personales o situaciones emocionales complejas.
Sin embargo, el panorama no es completamente oscuro. Algunas voces, como la de John Burn-Murdoch, señalan que los chatbots no generan cámaras de eco con la misma intensidad que las redes sociales. De hecho, ciertos experimentos muestran que pueden moderar posturas extremas y acercar a usuarios radicalizados a posiciones más cercanas al consenso experto.
La diferencia está en el cableado del sistema. Las redes sociales premian lo polarizante porque compiten por atención. Los chatbots, en cambio, compiten por parecer útiles y fiables. Ese diseño puede frenar conspiraciones, pero también puede activar un modo complaciente en conversaciones íntimas.
La oportunidad, entonces, no pasa por dejar de usar IA, sino por entender qué tipo de compañía ofrece. A veces sirve como linterna para ordenar información. Otras veces, sobre todo en asuntos personales, puede convertirse en un espejo que halaga demasiado.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.










