¿Alguna vez le has contado una discusión personal a tu chatbot de confianza para ver quién tenía razón? La Universidad de Stanford acaba de destapar que sistemas como ChatGPT, Claude o Gemini están diseñados desde su código base para regalarte los oídos. Su último estudio demuestra que la inteligencia artificial te dará la razón un 49 % más que cualquier ser humano promedio. Así de simple.
Y es que no estamos ante un simple fallo de configuración o un detalle estilístico de las tecnológicas. Según la investigación, que ha sido publicado recientemente en la revista Science, nos enfrentamos a un fenómeno grave bautizado como «sicompatía de la IA» o sycophancy. Básicamente, los algoritmos prefieren validarte y aplaudir tus decisiones antes que llevarte la contraria. Un comportamiento que nos empuja a ser menos críticos.
Pero claro, el problema explota de verdad cuando miramos quién está usando estas herramientas como psicólogos de bolsillo. Un reciente informe de Pew señala que el 12 % de los adolescentes en Estados Unidos ya acude a los chatbots en busca de apoyo emocional diario. Jóvenes en pleno desarrollo que están recibiendo consejos de una máquina programada para nunca decirles que se equivocan. Una auténtica bomba de relojería social.
La IA prefiere ser tu cómplice antes que decirte la verdad
El origen de todo este experimento tiene nombre y apellidos. La investigadora Myra Cheng empezó a tirar del hilo cuando descubrió con asombro que los universitarios usaban los grandes modelos de lenguaje (LLMs) para pedir consejos sentimentales e incluso redactar mensajes de ruptura. Como ella misma contó al Stanford Report, los sistemas de IA esquivan instintivamente dar ese «amor duro» que todos necesitamos a veces para madurar.
Si miramos los números de las pruebas, el escenario impone respeto. El equipo de Stanford examinó a fondo 11 modelos de lenguaje distintos, metiendo en el banco de pruebas a los pesos pesados del sector: DeepSeek, Gemini, Claude y ChatGPT. Les lanzaron consultas directas sobre conflictos interpersonales, dilemas morales complejos y hasta posibles acciones ilegales. Los resultados dejaron al equipo boquiabierto.

En concreto, el estudio utilizó situaciones reales y polémicas extraídas de la conocida comunidad r/AmITheAsshole en Reddit, donde miles de usuarios juzgan quién tiene la culpa en un conflicto cotidiano. En aquellos casos donde la comunidad humana dictaminó unánimemente que el autor del post estaba equivocado, la IA apoyó al usuario en un 51 % de las ocasiones. Es decir, los algoritmos se pusieron del lado del «malo» de la película solo porque era la persona que estaba introduciendo el prompt.
Por si fuera poco, la IA actual no tiene demasiados reparos en justificar comportamientos tóxicos. Durante las pruebas sobre acciones directamente perjudiciales o ilegales, los modelos validaron la postura del usuario un 47 % de las veces. El estudio cita un caso espeluznante donde un chatbot justificó a una persona que llevaba dos años mintiéndole a su pareja sobre su situación laboral. La máquina interpretó esa mentira prolongada como un «deseo genuino de entender la relación». De locos.
El negocio de los halagos: el incentivo tóxico de las tecnológicas
Evidentemente, para entender por qué ocurre esto hay que analizar el comportamiento humano en la segunda fase del experimento. Stanford reunió a más de 2.400 participantes y los puso a chatear sobre sus problemas personales con dos perfiles de inteligencia artificial: unos aduladores (sicofantes) y otros totalmente neutrales. Los usuarios mostraron una preferencia aplastante por las máquinas que les daban la razón sistemáticamente.
Y aquí es donde entra la cruda realidad financiera. La gente confiaba mucho más en las IA aduladoras y declaraba una mayor intención de volver a usarlas en el futuro cercano. Esto genera un incentivo perverso e inmenso para las empresas. El rasgo exacto que fomenta nuestro narcisismo es el mismo que dispara las métricas de retención y el engagement. Negocio redondo para Silicon Valley, problema enorme para nuestra salud mental.

A ello se le suma un impacto psicológico fulminante a corto plazo. Interactuar con esta IA aduladora provocó que los participantes terminaran la sesión sintiéndose extremadamente convencidos de tener la razón absoluta en sus conflictos. Como resultado, estaban mucho menos dispuestos a disculparse en la vida real. La herramienta no les ayudó a reflexionar, simplemente los radicalizó en su postura inicial.
Como bien subraya el profesor e investigador Dan Jurafsky, el verdadero peligro de esta tecnología es nuestra propia ceguera. Los usuarios se dan cuenta fácilmente de que el chatbot está siendo amable o empático, pero no perciben que esa interacción constante los está volviendo más egocéntricos y moralmente inflexibles. Para Jurafsky, la sicompatía de la IA ya no es un debate filosófico, sino un problema de seguridad que exige regulación urgente.
La pelota está ahora en el tejado de los ingenieros. El equipo de Stanford ya investiga cómo ajustar las directrices internas de los modelos para frenar esta epidemia de halagos artificiales. Mientras tanto, la recomendación de los autores es rotunda: no cambies a las personas por máquinas para recibir consejo humano. Y si quieres contarme si tu IA también te baila el agua en todo lo que dices, siempre me puedes escribir a mi correo electrónico: an********@********ch.com. Veremos si la industria se atreve a arreglar este despropósito o si prefieren seguir facturando a base de inflar nuestro ego.

Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.








