La Universidad Autónoma de Madrid acaba de poner números a una pregunta que muchos docentes se hacen en silencio: ¿son los estudiantes capaces de usar la inteligencia artificial generativa con cabeza, o solo como atajo rápido? El nuevo estudio apunta a una respuesta más optimista de lo que podrías pensar, pero con una trampa importante que aún está sin resolver.
El trabajo se ha realizado con alumnos que terminan sus grados en la UAM, en carreras tan distintas como Turismo, Derecho, Economía, Ingeniería, Química o Psicología. Es decir, no se ha limitado a perfiles “tecnológicos”, sino a un abanico amplio de estudiantes universitarios actuales en España. Y justo ahí es donde el resultado empieza a ser interesante para cualquiera que conviva con la IA en clase o el trabajo.

Según la investigación, los universitarios ya conviven a diario con herramientas de inteligencia artificial generativa. Las usan para redactar textos, preparar trabajos, resolver ejercicios y elaborar resúmenes extensos en pocos segundos. Los autores detectan que no se quedan solo en “copiar y pegar”: hay algo más en juego que puede cambiar cómo se diseñan las asignaturas en los próximos años.
El punto central del estudio es claro: los estudiantes que están a punto de graduarse muestran capacidad para usar la IA generativa de forma responsable. Dicho de otro modo, a lo largo de la carrera, el alumnado aprende a distinguir cuándo la inteligencia artificial le ayuda y cuándo sus respuestas no son fiables. Este criterio se mantiene, según los datos, con independencia del grado que cursan.
Para llegar a esta conclusión, el equipo de la UAM evaluó el análisis racional de los estudiantes. Lo que midieron no fue solo si sabían “chatear” con la herramienta, sino si eran capaces de juzgar la calidad de las respuestas, detectar errores y ver cuándo la IA se salía del camino. Esta metodología se aplicó a alumnos de varias ramas de conocimiento, lo que da solidez al resultado.
Los investigadores describen que, durante los años de universidad, el alumnado va construyendo una especie de “filtro crítico” frente a las respuestas de la IA generativa. No aparece de golpe en primero ni en segundo, sino que se refuerza con el trabajo académico, los debates en clase, la corrección de trabajos y los comentarios del profesorado. El hallazgo es positivo, pero abre un problema nuevo que aún no está resuelto.
También te puede interesar:ChatGPT Analiza Negocios Y Señala La Oportunidad Más Rentable Del MomentoLa gran pregunta ahora ya no es si los universitarios pueden usar la inteligencia artificial de forma responsable, sino en qué momento del proceso educativo nace ese pensamiento crítico. ¿Empieza en Bachillerato, en la ESO, en la propia universidad? Los autores coinciden en que llegar tarde en este punto tiene un coste claro para todo el sistema educativo.
Los investigadores subrayan que el reto pasa por determinar en qué etapa educativa se desarrolla el pensamiento crítico que permite que el uso de la IA generativa sea realmente responsable. Y, casi al mismo tiempo, proponen otra línea de trabajo: diseñar políticas educativas que eviten un uso inadecuado de estas herramientas antes de que el alumnado alcance ese nivel de madurez. Hay una ventana de tiempo en la que muchos jóvenes ya usan IA, pero todavía no tienen el filtro necesario.
En este contexto, la inteligencia artificial generativa se ha convertido en una herramienta casi cotidiana para el estudiante universitario medio. Sirve para escribir borradores de trabajos, revisar la redacción de un texto, generar explicaciones alternativas de un concepto complejo y hasta para crear esquemas de estudio. Bien usada, puede ahorrar tiempo y ayudar a entender mejor una materia, pero la trampa está, precisamente, en cómo se usa y cómo se revisa lo que ofrece.
Los modelos de IA generativa, como los que ya conoces en forma de chat, pueden producir textos convincentes, resolver ejercicios paso a paso y resumir documentos largos. Los autores recuerdan que estas herramientas también cometen errores, “alucinan” datos que no existen y repiten sesgos presentes en la información con la que han sido entrenadas. Esa mezcla de seguridad en el tono y posibles fallos en el fondo es uno de los grandes riesgos para el estudiante.
Por eso, el estudio insiste en que el uso responsable de la inteligencia artificial no es simplemente “saber dónde hacer clic”. Los estudiantes tienen que aplicar pensamiento crítico al leer las respuestas, cuestionarlas y contrastarlas con fuentes fiables, como artículos científicos, libros de referencia o materiales docentes. Un modelo que suena seguro puede estar equivocado, y esa duda sana es justo lo que marca la diferencia.

Entre los riesgos que señala la investigación, los sesgos algorítmicos ocupan un lugar importante. Cuando el sistema se entrena con datos que ya tienen desigualdades, la IA puede reproducirlas o incluso reforzarlas. Esto afecta a temas como género, origen étnico, nivel socioeconómico y otras variables sensibles, y puede filtrarse en trabajos académicos si nadie revisa lo que la máquina propone.
También te puede interesar:Experto Uruguayo, Eduardo Mangarelli, Analiza Riesgos de IA y Revela Cómo Evitar que Invente InformaciónOtro foco de preocupación son los problemas de privacidad. Los sistemas de inteligencia artificial generativa suelen entrenarse o afinarse con grandes cantidades de información y, en algunos casos, el usuario puede llegar a introducir datos personales, fragmentos de trabajos no publicados o información sensible. Muchos estudiantes no son plenamente conscientes de qué ocurre después con esos datos ni de quién tiene acceso a ellos.
La investigación también apunta al riesgo de que la IA ayude a difundir contenido falso a gran escala. Un modelo capaz de generar textos coherentes puede crear noticias falsas, trabajos inventados o “estudios” que parecen reales, pero que no tienen base. Esto puede amplificar la desinformación, sobre todo cuando se comparte sin revisar en redes sociales o foros estudiantiles.
En paralelo, el equipo menciona el impacto potencial de la automatización impulsada por la IA en ciertos sectores laborales. Profesiones relacionadas con tareas repetitivas, análisis básico de datos o redacción estándar pueden cambiar rápido en los próximos años. Para un estudiante, esto significa que no basta con saber usar la herramienta, también conviene entender cómo puede transformar el trabajo para el que se está preparando.
Los fallos de sistemas autónomos de inteligencia artificial en tareas críticas aparecen como otro de los peligros que se discuten. Hablamos de aplicaciones en sanidad, transporte o gestión industrial, donde un error de la IA no es solo un fallo de examen, sino un problema real. Aunque la mayoría del alumnado no usa este tipo de sistemas en su día a día, conocer estos riesgos ayuda a contextualizar la responsabilidad que implica la tecnología.
A todo esto se suma un elemento estructural: la falta de una regulación sólida que supervise de forma adecuada el desarrollo y el uso de la inteligencia artificial. Mientras se consolidan marcos legales como la futura regulación europea, muchas decisiones sobre cómo se usa la IA generativa recaen en universidades, docentes y estudiantes. Como apunta un miembro del proyecto, “sin reglas claras, pedimos mucho criterio individual en un entorno que cambia cada mes”.
Los autores del estudio sostienen que un uso responsable de la IA exige siempre tres capas simultáneas: pensamiento crítico, supervisión humana y políticas educativas claras. Es decir, no basta con confiar en que el estudiante “ya aprenderá” a usar la IA; el sistema educativo debe acompañar este proceso con pautas y límites concretos.
Las políticas educativas que proponen van en una dirección muy clara: ayudar al alumnado a identificar desde pronto las limitaciones y riesgos de las herramientas de inteligencia artificial generativa. Así, cuando el estudiante las integre plenamente en su trabajo académico, ya tendrá un marco claro sobre qué puede delegar y qué debe revisar con especial cuidado.
En la práctica, esto se traduce en tres ideas sencillas que las universidades pueden adoptar sin romperlo todo:
El estudio forma parte de TutorIA_Lab, una iniciativa de la Universidad Autónoma de Madrid centrada en entender cómo la IA generativa influye en los procesos de aprendizaje universitario. Este laboratorio analiza de qué manera los estudiantes usan la inteligencia artificial para elaborar trabajos académicos, preparar exámenes y recibir retroalimentación casi inmediata sobre sus textos.
TutorIA_Lab no se queda en una sola facultad. Compara el uso y el impacto de la IA generativa entre distintas áreas de conocimiento para detectar diferencias significativas. Un estudiante de Ingeniería puede apoyarse en la IA para código o cálculos, mientras que uno de Derecho la usará para resúmenes de jurisprudencia y redacción jurídica. Entender estas variaciones ayuda a ajustar las políticas a cada contexto.
Los responsables del proyecto explican que, a partir de los datos y experimentos que recogen, irán publicando resultados en revistas científicas y organizando jornadas formativas dirigidas a profesorado y estudiantes. El objetivo de esta difusión es claro: orientar de forma efectiva las políticas educativas en educación superior y que cada centro pueda definir mejor sus normas de uso de la IA generativa.
Uno de los grandes objetivos de TutorIA_Lab es promover de manera activa un uso responsable de la inteligencia artificial en la universidad. No se trata de prohibir estas herramientas ni de abrazarlas sin límites, sino de encontrar un punto de equilibrio en el que el estudiante pueda aprovechar su potencial sin perder su capacidad de pensar por sí mismo.
La clave, a partir de ahora, será adelantar este pensamiento crítico a etapas educativas anteriores y diseñar políticas que acompañen el proceso, para que la inteligencia artificial sea una aliada real en tu aprendizaje y no un atajo que termine jugando en tu contra.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.