¿Cuántas veces una respuesta inmediata te hizo bajar la guardia? Pasa con el GPS, con una calculadora y ahora también con la inteligencia artificial. El problema aparece cuando esa comodidad activa un interruptor silencioso: dejar de pensar por cuenta propia.

Eso es lo que revela un estudio reciente de Steven D. Shaw y Gideon Nave, investigadores vinculados a Wharton, sobre el uso de algoritmos y asistentes de IA. El hallazgo central es inquietante: estas herramientas no solo ayudan, también pueden funcionar como un tercer sistema de pensamiento externo que influye en cómo razonamos.

La IA no está libre de errores, y estos no siempre son evidentes.

Tradicionalmente, la psicología hablaba de dos engranajes mentales. El Sistema 1, rápido e intuitivo, y el Sistema 2, lento y analítico. Pero los modelos de lenguaje, sistemas capaces de generar texto como si conversaran, están ocupando una pieza clave de ese cableado mental y, en muchos casos, sustituyen el esfuerzo interno en lugar de complementarlo.

Los autores llaman a este mecanismo “rendición cognitiva”: aceptar pasivamente lo que dice una IA sin someterlo a revisión. No es delegar una tarea de forma estratégica. Es algo más parecido a entregarle el volante a un copiloto sin mirar si la ruta tiene un muro delante.

También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financieros

Con la IA ocurre algo parecido. La respuesta llega tan pulida y segura que parece una llave correcta, incluso cuando no abre la puerta. A diferencia de un buscador tradicional, donde hay varias fuentes y contradicciones visibles, aquí el error suele venir empaquetado con una coherencia muy persuasiva.

Además, ese formato genera una falsa sensación de seguridad. El usuario no ve el cableado interno ni el proceso de verificación. Solo recibe una frase convincente, inmediata y lista para usar, y ahí está la trampa.

El experimento que encendió la alarma

Cuando la IA procesa datos incorrectos, las decisiones también fallan

Para medir este efecto, los investigadores trabajaron con casi 1.400 participantes y miles de ensayos individuales. Usaron pruebas clásicas como el problema del bate y la pelota, diseñadas para separar la intuición errónea del razonamiento correcto.

En varios momentos, manipularon la precisión de la IA para que ofreciera respuestas incorrectas en puntos clave. El objetivo era simple: comprobar si las personas mantenían su propio criterio o si seguían a la máquina incluso cuando fallaba.

También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financieros
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional Adolescente

Los resultados fueron contundentes. Los participantes consultaron al asistente en más de la mitad de las ocasiones y, cuando la IA se equivocaba, replicaban ese error en el 80% de los casos. Ni la presión del tiempo ni los incentivos económicos lograron desactivar esa dependencia.

El estudio subraya que la presencia de la IA mejora el rendimiento cuando acierta, pero empeora de forma significativa cuando falla.

Ahí aparece la diferencia clave entre ayuda y sustitución. Una calculadora bien usada acelera una cuenta. Pero si alguien acepta cualquier número que aparezca en la pantalla, la herramienta deja de ser apoyo y se convierte en un piloto automático defectuoso.

Qué cambia en la vida diaria

Debemos aprender a dudar sistemáticamente y recuperar el hábito de razonar

Este hallazgo no se queda en el laboratorio. Toca la educación, la justicia y también la rutina más común: buscar una explicación médica, redactar un mensaje importante o resolver una duda de trabajo. Si la IA ofrece información falsa con convicción, detectar el error se vuelve más difícil.

Los investigadores advierten que las personas con alta confianza en la tecnología y baja motivación para pensar críticamente son más vulnerables. Es un atajo mental tentador: menos esfuerzo ahora, más riesgo después.

Por eso, la oportunidad no está en apagar estas herramientas, sino en usarlas con una regla simple: preguntar, contrastar y volver a pensar. Europa ya enfrenta el reto de regular e integrar la IA sin fomentar esta rendición pasiva.

La pieza clave, al final, sigue siendo humana. La IA puede encender la luz más rápido, pero el interruptor del criterio todavía conviene tenerlo en casa.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios