¿Te pasó de mirar un tema entero y sentir que, con un par de prompts, podrías “sacar” el examen sin meterte de lleno? La inteligencia artificial se volvió ese atajo tentador: promete velocidad, orden y respuestas inmediatas. Pero también puede dejar una sensación rara, como estudiar sin enterarse.
El hallazgo lo pone en números la Fundación Conocimiento y Desarrollo: el 89% de los universitarios usa aplicaciones de IA y un 35% lo hace a diario. La pieza clave es otra: solo el 34% recibió formación para usarla. El mecanismo, entonces, queda en manos del ensayo y error.

En el aula, el engranaje se siente. Ferran Ballard lo resume con una frase que ya circula como diagnóstico: “Nunca ha sido tan fácil aprobar, pero nunca ha sido tan difícil aprender”. Según observa, muchos estudiantes dedican más tiempo a elegir herramientas que a estudiar. Y se saltan pasos básicos: lectura, repaso, teoría.
Teresa Valiñas, estudiante que aún usa bolígrafo y papel, encontró su central de apoyo en 2024, durante un Erasmus en Italia. Allí empezó a usar ChatGPT para resumir temarios y pedir explicaciones “como a un niño de 10 años”. Si una respuesta no convence, reformula la pregunta. No lo toma como oráculo.
Su método tiene un interruptor claro: primero lee y entiende; después pide resúmenes pequeños. Y los corrige. Teresa advierte que la IA “se inventa muchas cosas”, desde leyes mal citadas hasta ideas que se saltean lo que el profesor remarcó.
Ana Umbert, otra alumna brillante, usa el “chat” recién al final. Antes subraya, resume con sus palabras y hace mapas mentales a mano. Luego le pide a la IA que le genere exámenes: hasta cien preguntas tipo test para comprobar si realmente domina. Justamente por saber el contenido, detecta cuándo la IA falla.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaAhí aparece la analogía doméstica que mejor traduce este fenómeno: la IA es como una batidora. Puede acelerar la cocina, pero no decide la receta ni te enseña a reconocer si la comida quedó cruda. Si se pone a licuar antes de elegir ingredientes, el resultado puede ser rápido y vistoso, pero pobre.
Ballard advierte otro cableado invisible: la “ilusión de conocimiento”. Ocurre cuando el estudiante consume un resumen ya terminado y evita la incomodidad de pelearse con el temario. Ese esfuerzo, aunque molesto, es el que fija conceptos. Sin esa fricción, el aprendizaje profundo se desajusta.
Además, cuando una IA hace un resumen, puede enfatizar conceptos distintos a los del docente y usar otro vocabulario. Es un cambio de “diccionario” que parece menor, pero puede mover la aguja en un examen o en una discusión en clase.
Las herramientas crecen como un cajón lleno de destornilladores. Google, por ejemplo, presentó funciones educativas en Gemini basadas en “aprendizaje guiado” (resolución paso a paso), que convierte información en gráficos o imágenes y permite armar cuestionarios en segundos con un “hazme un quiz”. Maureen Heymans sitúa en 13 años una edad adecuada para introducir IA en colegios.

En paralelo, aparecen apoyos más “logísticos”: Proactor IA graba explicaciones del profesor para escucharlas o transcribirlas; NotebookLM resume una foto de apuntes manuscritos; Anki o Flashka arman flashcards; BibGuru automatiza bibliografías; y Consensus busca respuestas apoyándose en literatura científica.
Sin embargo, María Jesús Villanueva (Susi Profe) subraya que la parte humana no se evaporó. Al contrario: se valora más. Y plantea una oportunidad concreta: cambiar la evaluación. Pedir un resumen de un libro pierde sentido si se puede delegar. En cambio, ganan peso el examen oral, la resolución en pizarra y las simulaciones prácticas.
También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el AprendizajeGutmaro Gómez-Bravo, catedrático de Historia, describe un síntoma nuevo: alumnos que verifican en directo lo que dice el profesor con búsquedas poco fiables. Esa tensión obliga a frenar la clase y reponer una clave que parecía obvia: no toda fuente es una buena fuente, aunque aparezca primera.
En Medicina, Miguel Ángel Martínez no propone vetos, sino acuerdos. Pacta menos pantallas en el aula a cambio de ajustes concretos en la cursada. Y en sus exámenes compara respuestas de herramientas como Perplexity para que el alumno elija cuál es correcta y justifique por qué. La idea es simple: usar la IA como espejo, no como muleta.
Quizás el futuro se parezca a eso: menos fe ciega y más criterio. Porque la batidora ayuda, sí. Pero el aprendizaje —como la cocina— sigue dependiendo de quién elige los ingredientes y se anima a probar, corregir y volver a empezar.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.