Un estudio de la Universidad de Pensilvania pone el foco en una pregunta más incómoda que “si la IA nos vuelve tontos”. La clave, señalan sus autores, es otra: la IA podría estar volviéndonos más vagos a la hora de pensar, en especial cuando aceptamos respuestas con escrutinio mínimo.
Los investigadores le ponen nombre a ese mecanismo: “rendición cognitiva”. Es el gesto de bajar la guardia mental y dejar que el razonamiento ocurra afuera de la mente, en la IA, sin la verificación que normalmente activa el juicio propio.

Para medirlo, el equipo usó tests de reflexión cognitiva (preguntas con trampa intuitiva), diseñados para que la primera respuesta que aparece en la cabeza suela ser incorrecta. Ahí entra la teoría de Daniel Kahneman sobre el sistema 1 (pensamiento rápido) y el sistema 2 (pensamiento lento).
Pero el estudio sostiene que ese mapa quedó corto para 2026. Por eso propone un “sistema 3”, la “cognición artificial” (razonamiento fuera de la mente), cuando la persona delega parte del proceso en una IA generativa.
El experimento dividió a los participantes en dos grupos. Uno resolvía las pruebas solo con su razonamiento. El otro tenía acceso a ChatGPT, pero con un detalle clave: la versión estaba manipulada para fallar deliberadamente en el 50% de las ocasiones.
El resultado fue un interruptor que se vio a simple vista. Cuando la IA daba una respuesta incorrecta, los participantes la copiaban el 80% de las veces. Además, quienes usaban la IA mostraban más seguridad en sus respuestas, aunque acumulaban más errores.
También te puede interesar:Currículums Generados con IA: Por Qué el 49 % de Recursos Humanos los Rechaza de PlanoEn números, el estudio interpreta que un 73% aceptó respuestas equivocadas sin cuestionarlas, un patrón compatible con rendición cognitiva. Solo un 17% corrigió a la IA cuando se equivocaba, algo más cercano a usarla como herramienta sin entregar el control.
El punto no es que la IA se equivoque. Eso ya se sabe. El engranaje preocupante es otro: muchos participantes asumían como propia la seguridad con la que la IA formulaba sus respuestas y dejaban de comprobar si eran correctas.
Y esa costumbre, advierten los investigadores, puede erosionar el pensamiento crítico. Porque el hábito de desconfiar —de hacer una cuenta mental, de releer una frase, de pedir una fuente— también se entrena. Y también se pierde.

Este clima conecta con otro concepto que circuló fuerte: la “deuda cognitiva”, planteada en un trabajo del MIT titulado “Tu cerebro en ChatGPT: acumulación de deuda cognitiva al utilizar un asistente de IA al escribir un ensayo”. Ahí se midió actividad cerebral con encefalografía (registro eléctrico del cerebro) mientras personas redactaban textos.
El grupo que usó ChatGPT mostró menor actividad cerebral y se fue volviendo más perezoso conforme avanzaba la tarea. Aunque el propio debate pide un matiz: menos actividad al usar una herramienta potente puede ser esperable, como pasa con la calculadora. El problema aparece cuando se usa para tareas demasiado simples, como necesitarla para sumar 2+2.
La línea divisoria, entonces, no es tecnológica. Es de conducta. La IA no “apaga” el cerebro por sí sola: el riesgo aparece cuando se convierte en respuesta automática y no en apoyo.
En la vida cotidiana, el consejo es: Si la respuesta importa, se revisa. Si suena demasiado redonda, se verifica. Y si la IA habla con seguridad, se recuerda que la seguridad no es evidencia.
Porque el futuro no se decide entre humanos o máquinas, sino en un detalle más pequeño: quién tiene la mano en el tablero cuando salta la térmica del pensamiento.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.