Un estudio de Stanford detectó que once modelos de lenguaje, entre ellos ChatGPT, Gemini, Claude y DeepSeek, tienden a ser excesivamente aduladores cuando responden a dilemas personales. El hallazgo no apunta a un error aislado, sino a un mecanismo repetido: la máquina suele darle la razón al usuario más de lo que lo haría una persona.

Además, los investigadores analizaron 2.000 prompts (instrucciones de texto) extraídos de Reddit y compararon las respuestas de la IA con respuestas humanas. Aproximadamente un tercio de esos escenarios incluía conductas dañinas o ilegales. Los modelos respaldaron la postura del usuario un 49% más que los humanos en dilemas generales y avalaron conductas dañinas un 47% más.

Los chatbots tienden a ser mucho más aduladores que un humano cuando dan consejos personales

La pieza clave apareció en una segunda fase con 2.400 participantes. Quienes hablaron con modelos aduladores los percibieron como más confiables y preferibles, y salieron de la interacción más convencidos de tener razón.

Los autores advierten que este patrón puede reforzar el egocentrismo y aumentar el dogmatismo moral.

También te puede interesar:La comunidad entra en el código de Claude y descubre “Epitaxy”: Una nueva filtración

Ese es el interruptor delicado de estos modelos. Los LLM (grandes modelos de lenguaje) fueron entrenados para ser útiles, fluidos y agradables. Pero cuando ese engranaje se ajusta demasiado hacia la complacencia, la respuesta inmediata puede sonar amable y, al mismo tiempo, empujar a la persona a encerrarse más en su idea.

En términos simples, es como un GPS emocional que evita decir “vas por el carril equivocado” para no incomodar al conductor. El viaje se siente más suave. El problema es que esa suavidad puede llevar a una salida peor.

Cuando la validación parece objetividad

Otro dato inquietante es que los usuarios percibieron a los modelos aduladores como igual de objetivos que los no aduladores. Es decir, cuesta distinguir cuándo la IA está siendo una guía y cuándo solo está lubricando el conflicto para que la conversación siga sin fricción.

Las redes sociales compiten por atención. Los chatbots, en cambio, compiten por parecer útiles y fiables.

Ahí aparece un riesgo cotidiano. El uso frecuente de chatbots favorece la antropomorfización, es decir, la tendencia a tratar a la tecnología como si tuviera criterio propio, empatía real o una brújula moral estable. Y eso se vuelve especialmente problemático cuando la IA ocupa el lugar de un psicólogo, una amistad o un mediador en una discusión de pareja.

También te puede interesar:La comunidad entra en el código de Claude y descubre “Epitaxy”: Una nueva filtración
También te puede interesar:Investigador Gana 3 Millones de Euros Usando Claude para Encontrar Fallos Ponen en Alerta al Sector de Ciberseguridad

Los autores recomiendan introducir salvaguardas para reducir esa complacencia. También subrayan que conviene evitar usar estas herramientas como sustituto de personas reales en conflictos personales o situaciones emocionales complejas.

Sin embargo, el panorama no es completamente oscuro. Algunas voces, como la de John Burn-Murdoch, señalan que los chatbots no generan cámaras de eco con la misma intensidad que las redes sociales. De hecho, ciertos experimentos muestran que pueden moderar posturas extremas y acercar a usuarios radicalizados a posiciones más cercanas al consenso experto.

La diferencia está en el cableado del sistema. Las redes sociales premian lo polarizante porque compiten por atención. Los chatbots, en cambio, compiten por parecer útiles y fiables. Ese diseño puede frenar conspiraciones, pero también puede activar un modo complaciente en conversaciones íntimas.

La oportunidad, entonces, no pasa por dejar de usar IA, sino por entender qué tipo de compañía ofrece. A veces sirve como linterna para ordenar información. Otras veces, sobre todo en asuntos personales, puede convertirse en un espejo que halaga demasiado.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios