ChatGPTTrumpNano Banana ProNotebookLMAsk GeminiGmailxaiGrokAgent 365Agentes IAadobeClaudeAnthropicmicrosoftAmazon

Sam Altman Presume de una IA Avanzada, pero Investigadores Señalan un Problema Cognitivo al Usar ChatGPT

 | noviembre 24, 2025 06:07

Cuando abres ChatGPT y pides un resumen sobre “cómo montar un huerto en casa” o “cómo vivir más sano”, la respuesta llega en segundos, ordenada y digerible. Esa comodidad tiene un precio oculto: según una nueva investigación académica, cuando aprendes así, tu conocimiento tiende a ser menos profundo y menos original que si haces la clásica búsqueda en Google y vas saltando entre páginas.

El trabajo lo firman Shiri Melumad y Jin Ho Yun, de la Universidad de Pennsylvania, y se publicó en octubre de 2025 en PNAS Nexus. Comparan, en varios experimentos con miles de adultos, qué pasa cuando aprendes con una IA generativa como ChatGPT o con el resumen de IA de Google frente a cuando “googleas” a la vieja usanza. Lo llamativo no es sólo el resultado, sino por qué ocurre… y aquí entra en juego algo que quizá te toque de cerca: el sedentarismo cognitivo.

Lo llaman “HackedGPT”: el informe que destapa las siete grietas más peligrosas jamás vistas en ChatGPT

Los autores parten de una idea sencilla pero potente: cuando usas una IA generativa, no estás navegando entre fuentes, sino consumiendo síntesis hechas por grandes modelos de lenguaje (LLM). Es decir, en vez de ver diez enlaces distintos, lees un texto único que ya mezcla, ordena y recorta por ti. Aparentemente es lo mismo, porque los datos de fondo pueden ser similares, pero el proceso mental que haces tú cambia por completo.

Al googlear tienes que formular varias consultas, probar palabras, abrir pestañas, leer artículos, cruzar información y quedarte sólo con lo que te convence. Ese ir y venir es un proceso activo, iterativo, casi artesanal. Así construye una especie de mapa mental del tema, con detalles, matices y contradicciones que necesitas resolver.

La teoría de los investigadores dice que esa “construcción de sentido” es justo lo que alimenta un aprendizaje profundo. El esfuerzo de explorar fuentes y sintetizarlas, aunque sea más pesado, te obliga a conectar piezas y crear tu propia estructura de conocimiento. Cuando un LLM te entrega todo en un resumen compacto, ese trabajo se reduce muchísimo.

OpenAI Confirma lo que Pocos Esperaban: ChatGPT Triunfa más en la Vida Diaria que en Oficinas

En el primer estudio participaron 1.136 personas adultas (1.104 datos analizados). Todas tenían que informar a un amigo sobre cómo crear un huerto en casa. A unas se les pidió que buscaran con Google y a otras que preguntaran a ChatGPT, asignadas al azar. Después, todas debían redactar un consejo para su amigo, pero ya sin ayuda de la IA en la escritura.

También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones

Se midió casi todo lo que se te ocurra: cuánto tiempo pasaban buscando, cuántas consultas hacían, cuántos sitios visitaban en Google o cuántos prompts escribían en ChatGPT, y cuánto tardaban en redactar el consejo. También se les preguntó cuánto sentían que habían aprendido, cuán completa les parecía la información, cuánto esfuerzo creían haber puesto y hasta qué punto sentían el conocimiento como propio.

Los textos se analizaron con herramientas de procesamiento de lenguaje natural para estimar la profundidad del contenido, la originalidad del lenguaje, la longitud y el número de datos o entidades únicas (por ejemplo, tipos de plantas o herramientas concretas) mencionadas. Eso permitía ver no sólo sensaciones subjetivas, sino huellas objetivas del tipo de aprendizaje.

Quienes usaron ChatGPT tardaron menos en la fase de búsqueda que quienes usaron Google. En promedio, los usuarios de Google invirtieron unos 12 minutos en informarse sobre el huerto, mientras que los de ChatGPT estuvieron algo más de 9 minutos. Curiosamente, el número de consultas fue casi el mismo: unas 2,15 en Google frente a 2,06 prompts en ChatGPT, lo que sugiere que el ahorro de tiempo no venía de “hablar menos” con la herramienta, sino de interactuar menos con los resultados.

En la parte subjetiva, los usuarios de ChatGPT declararon haber aprendido menos cosas nuevas, sentir la información como menos completa y notar menos apropiación personal del conocimiento que quienes buscaron con Google. Cuando llegó el momento de escribir el consejo, también dijeron que les costó menos esfuerzo y que sentían menos responsabilidad personal sobre lo que estaban recomendando.

Los tiempos de escritura acompañan esa sensación: quienes habían usado Google dedicaron de media unos 4,11 minutos a redactar sus consejos, frente a 3,69 minutos en el grupo ChatGPT. No parece una diferencia enorme, pero apunta en la misma dirección: menos esfuerzo invertido en elaborar el contenido cuando el aprendizaje previo vino en forma de resumen compacto.

El análisis automático de los textos reforzó la idea del conocimiento más superficial. Los consejos del grupo Google tenían una media de 95 palabras; los del grupo ChatGPT, unas 85. No es sólo que fueran algo más cortos. Los primeros incluían más hechos o entidades únicas, unas 0,7 de media, frente a 0,4 en los segundos, lo que indica una mayor riqueza de detalles específicos cuando el aprendizaje venía de “googlear”.

También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de Europa

El matiz más interesante estaba en la originalidad. Los consejos escritos tras aprender con ChatGPT se parecían más entre sí, tanto en temas como en combinaciones de ideas, con menor singularidad semántica. En cambio, los generados tras la búsqueda en enlaces mostraban más variación. Menos esfuerzo, resúmenes más cerrados y textos más homogéneos encajaban con la hipótesis de partida: menos exploración, menos profundidad.

Los autores interpretan que una gran ventaja de los LLM, reducir la carga de explorar y sintetizar, tiene un coste educativo: el conocimiento adquirido tiende a ser más plano y menos propio. No sólo porque tú sientes que has aprendido menos, sino porque, medido desde fuera, lo que produces contiene menos capas. La comparación que ponen es clara: es como ver la solución de un problema matemático en lugar de intentar resolverlo tú.

Para comprobar que el efecto no se debía simplemente a que ChatGPT “tuviera peor contenido”, en el segundo experimento, con 1.979 participantes, hicieron un truco metodológico interesante. Crearon una respuesta de ChatGPT sobre cómo empezar un huerto, un texto de 291 palabras con siete consejos. Ese mismo contenido se reescribió en seis versiones distintas, imitando estilos de medios como Better Homes and Gardens o The New York Times.

Esas seis versiones se mostraron como enlaces en la página de resultados de Google, de forma que el grupo Google veía una lista variada de artículos, pero todos escondían la misma información de fondo que el resumen original de chat. Así, tanto quienes leían a la IA generativa como quienes navegaban por enlaces recibían, en esencia, los mismos datos. Lo único que cambiaba era el camino para llegar a ellos y la forma de procesarlos.

Aunque el contenido era equivalente, los patrones se repitieron. Quienes recibían el resumen de IA directamente declararon que habían aprendido menos que los que tuvieron que pinchar en los enlaces. Los usuarios de ChatGPT mostraron menos interés en elaborar sus consejos y los textos producidos volvían a reflejar un conocimiento menos profundo del tema. El problema no era “qué” se aprendía, sino “cómo” se llegaba a ello.

Cómo cambia el aprendizaje cuando pasas de googlear a preguntar a ChatGPT

En el tercer experimento, con 350 participantes, los investigadores mantuvieron constante la plataforma y cambiaron sólo la presentación. Todo el mundo usó Google, pero un grupo veía el resumen de IA de la propia compañía, conocido como Google Overviews, mientras el otro sólo veía la lista tradicional de enlaces. Así podían aislar el efecto del resumen integrado frente a la exploración por tu cuenta.

De nuevo, el grupo expuesto al resumen IA mostró menor profundidad de aprendizaje e implicación. Menos sensación de haber aprendido, menos apropiación personal del conocimiento y menos esfuerzo percibido. Todo esto, simplemente por añadir arriba del todo un texto ya sintetizado que reduce la necesidad de abrir varias pestañas y cruzar información. La eficiencia, otra vez, parecía venir acompañada de un empobrecimiento del proceso cognitivo.

El cuarto experimento dio un giro interesante: puso el foco en quienes reciben los consejos, no en quienes los generan. Aquí participaron 1.501 personas. A cada una se le presentaban dos textos sobre cómo llevar una vida saludable. Uno había sido escrito por alguien que aprendió con Google Overviews; el otro, por alguien que buscó navegando enlaces, pero los lectores no sabían cuál era cuál.

Cada consejo se valoró en una escala del 1 al 5 en varias dimensiones: cuán útil parecía, cuánta información contenía, cuánto esfuerzo se percibía por parte del autor, cuánta confianza generaba y qué probabilidad había de seguirlo o de recomendarlo a otra persona. Después, se les pedía comparar ambos y elegir cuál les resultaba más útil en conjunto.

Lo llamativo es que los receptores consideraron, sin conocer su origen, que los consejos derivados del aprendizaje con Google Overviews eran menos útiles e informativos. También los percibieron como fruto de menos esfuerzo del autor, confiaron menos en ellos y se mostraron menos dispuestos a seguirlos o a recomendarlos. Es decir, el efecto no se queda en tu cabeza: se nota en cómo otros valoran lo que haces.

Sumando los siete estudios –cuatro principales y tres réplicas, con un total de 10.462 participantes adultos y una media de edad de 42 años–, la conclusión general es consistente. Cuando delegas la exploración y la síntesis en una IA generativa, el aprendizaje tiende a volverse más pasivo y el conocimiento resultante, algo menos profundo. Eso no significa que siempre sea malo, pero sí que existe un coste que conviene tener presente.

Los autores insisten en que no se trata de demonizar estas herramientas. Reconocen que los LLM tienen beneficios importantes en educación y formación, sobre todo para acceder rápido a información básica o para clarificar dudas puntuales. El mensaje es más fino: quizá no sea buena idea que ChatGPT, Google o sistemas similares hagan “todo el trabajo de búsqueda” por ti, sustituyendo por completo el proceso activo de investigar.

El psicólogo uruguayo Álvaro Cabana, del CibPsi de la Universidad de la República, valora positivamente el diseño del estudio. Destaca la secuencia de experimentos: primero comparan productos tal y como se usan en la vida real, luego controlan el contenido con textos simulados, después contrastan dentro del propio Google resúmenes IA frente a enlaces… y en todos los casos aparecen patrones parecidos. En sus palabras, “cuando algo exige menos esfuerzo cognitivo, lo habitual es que lo que aprendemos sea menos profundo”.

Cabana sí critica un punto metodológico: el artículo no reporta tamaños de efecto detallados, sólo valores medios. Eso dificulta calibrar cuán grandes son realmente las diferencias entre grupos. Su interpretación es que los efectos parecen pequeños, es decir, el aprendizaje es algo menos profundo con IA, pero la diferencia sería modesta comparada con la enorme variabilidad entre personas. El hallazgo importa porque confirma una idea conocida en psicología del aprendizaje.

Qué es el sedentarismo cognitivo y por qué se relaciona con ChatGPT

Para explicar el trasfondo, Cabana recurre al concepto de “sedentarismo cognitivo”. A medida que el entorno tecnológico resuelve más tareas por nosotros, dejamos de ejercitar ciertas capacidades mentales. Un ejemplo muy gráfico es el GPS: al delegar siempre la orientación en el móvil, dejamos de construir mapas mentales de las ciudades como antes, y perdemos práctica en esa habilidad sin casi darnos cuenta.

Algo parecido ocurre con las calculadoras. No se pretende prohibirlas, pero en la escuela se retrasa su uso porque el cálculo mental entrena varias capacidades cognitivas a la vez. Con la escritura pasa lo mismo: si delegas todos tus textos en una IA generativa, tú dejas de practicar cómo construir frases, organizar ideas o encontrar tu tono. Aunque ChatGPT escriba mejor que tú hoy, necesitas esforzarte en escribir para llegar a dominar esa competencia.

Cabana comenta que, en su experiencia como docente universitario, ya ve este efecto: estudiantes que saben que la IA puede redactar por ellos y, en consecuencia, escriben menos y más inseguro por su cuenta. Lo que más le preocupa no es tanto el impacto en adultos, cuyas capacidades ya están bastante formadas, sino lo que puede pasar si algunas habilidades nunca llegan a desarrollarse bien en niños y adolescentes expuestos desde siempre a resúmenes automáticos.

El estudio de Melumad y Yun no entra directamente en población infantil, pero sus resultados apuntan en esa dirección. Si la síntesis automática se convierte en la forma dominante de aprender, corremos el riesgo de que muchos procesos clave –como analizar fuentes, comparar versiones, detectar contradicciones o escribir con intención propia– queden infraentrenados. Eso haría la relación con el conocimiento más distante, como si siempre lo miraras desde fuera.

Todo esto desplaza el debate más allá del típico “prohibir o no prohibir la IA en clase”. La pregunta relevante pasa a ser qué tipo de procesos cognitivos se activan cuando usas estas herramientas y cuáles se apagan. No todas las tareas tienen el mismo valor formativo. Hay actividades que quizá sí convenga automatizar, y otras en las que ese “atajo” podría empobrecer tu desarrollo intelectual a largo plazo.

Cabana subraya también la dimensión comercial del asunto. Estas IA son productos de grandes compañías, con intereses propios y estrategias de negocio. Presentarlas como algo casi mágico puede hacer que olvidemos que, en última instancia, son ordenadores ejecutando algoritmos entrenados en grandes cantidades de texto. Desmitificar la IA, quitarle ese aura de oráculo, es esencial para fomentar un uso realmente crítico, sobre todo entre los más jóvenes.

Hoy, muchos niños y adolescentes crecen rodeados de pantallas, aplicaciones muy adictivas, redes sociales y ahora también asistentes conversacionales. No sabemos todavía qué efectos completos tendrá esa combinación en el desarrollo cognitivo a largo plazo. El hecho de que la incógnita exista no significa que haya que frenar todo, pero sí invita a un uso contextualizado y reflexivo, donde el objetivo no sea sólo ir más rápido.

Desde esta perspectiva, la alfabetización digital crítica se vuelve central. No basta con saber “usar” un chat de IA; conviene entender qué hace por dentro, qué sesgos puede tener, cuándo tiene sentido apoyarse en sus resúmenes y cuándo puede ser mejor hacer el esfuerzo de leer varias fuentes y pensar tu propia síntesis. Muchas tecnologías prometen hacerte la vida más sencilla, pero no siempre es buena idea cederles todo el trabajo.

Cuando una herramienta simplifica en exceso una tarea cognitiva compleja, como condensar información densa en resúmenes muy planos, puede que te ahorre tiempo, pero también parte del ejercicio mental que construye tu capacidad para comprender a fondo. El estudio que enfrenta ChatGPT con la búsqueda en Google y las reflexiones sobre el sedentarismo cognitivo apuntan justamente a eso: si sólo te quedas con los resúmenes, tu mundo mental se vuelve un poco más pobre.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram