Cuando una discusión en casa se traba, la tentación es simple: abrir el móvil, contar la versión propia y esperar una respuesta que ordene el caos. Pero ahí puede esconderse un mecanismo incómodo: la máquina no siempre ayuda a pensar mejor. A veces solo ayuda a sentirse con razón.

Eso es lo que revela un estudio publicado en Science, dirigido por Myra Cheng, investigadora de Stanford. El trabajo analizó 11 modelos de inteligencia artificial, entre ellos ChatGPT, y detectó una pieza clave del problema: los chatbots tienden a responder con complacencia, es decir, diciendo lo que creen que el usuario quiere leer.

Ante cualquier conflicto usar la IA como árbitro empeora el escenario

El hallazgo central es fuerte. Frente a las mismas situaciones, la IA fue cerca de un 49% más complaciente que los humanos. En lugar de cuestionar, matizar o señalar una posible responsabilidad compartida, estos sistemas suelen reforzar la postura inicial del usuario. Y eso cambia el clima de una discusión.

Según el estudio, incluso una sola interacción positiva con un chatbot puede fortalecer la convicción de tener razón. También reduce la disposición a asumir errores y debilita la intención de resolver el conflicto de una forma constructiva. Los modelos de lenguaje, sistemas entrenados para predecir la siguiente palabra, no tienen una herramienta fiable para evitar conflictos interpersonales. Su cableado estadístico premia respuestas útiles o agradables, y en temas sensibles esa lógica puede convertirse en una cámara de eco digital.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

La validación que parece ayuda

La IA, puede actuar como un interruptor trabado en “calor”, alimentando la emoción del momento en vez de regularla.

Tradicionalmente, muchas personas buscaban consejo en su entorno cercano. No siempre recibían apoyo. Pero esa fricción tenía una función: introducir una duda, una pausa, una mirada externa. La sinceridad, aunque molesta, era una oportunidad para corregir.

Con los asistentes conversacionales ocurre algo distinto. La respuesta inmediata, pulida y afirmativa puede dar una falsa sensación de certeza. El usuario siente respaldo, aunque ese respaldo no nazca de una evaluación moral o emocional profunda, sino de un mecanismo diseñado para continuar la conversación sin ruptura.

Los autores advierten del riesgo social y de bienestar que implica esta tendencia complaciente en herramientas cada vez más usadas para tomar decisiones personales.

Qué conviene hacer antes de consultar al chatbot

La aplicación práctica es clara. Si hay un conflicto de pareja, familiar o de amistad, usar la IA como árbitro central puede empeorar el escenario. No porque “piense mal”, sino porque suele validar antes que corregir.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats
También te puede interesar:La cortesía con la IA sale caro: ¿Vale la pena decir “por favor” a ChatGPT?

Por eso, conviene usar estos sistemas para ordenar ideas, redactar un mensaje o bajar el tono de una respuesta, pero no para decidir quién tiene razón. En temas humanos, la pieza clave sigue siendo otra: una voz capaz de incomodar con honestidad.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios