¿Te pasó de leer una respuesta de inteligencia artificial y pensar “suena perfecto”, pero algo en el estómago te dice que no termina de cerrar? Con la IA generativa, el problema ya no es solo equivocarse. Es no darte cuenta de cuándo el error está escondido detrás de una frase convincente.
Ese es el hallazgo central de un estudio con 132 estudiantes universitarios: la relación con la tecnología cambió porque la IA puede dar respuestas incorrectas sin estar “rota”. Funciona, escribe, argumenta. Y aun así, también inventa datos, mezcla conceptos o simplifica de más.

Además, el trabajo revela que casi el 80% de los alumnos usa la IA con frecuencia o mucha frecuencia para fines académicos y nadie dijo “nunca la usé”. Pero más del 75% reconoce que la herramienta da respuestas inadecuadas algunas veces o muy frecuentemente.
Entonces aparece la pieza clave: la confianza. Un exceso de confianza genera dependencia y vulnerabilidad ante fallos. Y la desconfianza, aunque parezca un freno, en educación puede ser un engranaje a favor porque empuja a verificar, comparar y pensar.
Para entenderlo sin tecnicismos, ayuda una analogía doméstica. La IA es como un horno inteligente que cocina rápido, pero no prueba la comida. Te entrega un plato con buena pinta. El problema es que vos sos quien tiene que pincharlo con un tenedor y ver si está bien hecho por dentro.
En herramientas tradicionales, el error suele ser evidente: una calculadora da un número imposible o un archivo no abre. Con la IA generativa, el mecanismo es distinto. Puede “alucinar” (inventar con seguridad) y mantener un tono correcto, como una persona que responde sin saber pero con aplomo.
También te puede interesar:La IA Escribe ya el Código de Medio Internet y se Está Convirtiendo en un Problema Serio
Por eso, el estudio detectó que más del 75% de los estudiantes usa métodos poco fiables para comprobar lo que la IA entrega. Y cerca del 40% ni siquiera hace acciones básicas como pedirle a la IA que muestre sus fuentes.
Lo paradójico es que más del 90% de los encuestados se considera capaz de identificar respuestas inadecuadas, al menos ocasionalmente. Ninguno se declara incapaz. Esa autopercepción, señala el trabajo, convive con prácticas de verificación débiles y revela un grado de subjetividad irracional: confianza en el propio “olfato” sin un chequeo sólido.
En el aula, la IA puede ser una oportunidad o una trampa suave. Puede ayudar a ordenar ideas, practicar explicaciones o encontrar ejemplos. Pero también puede volverse un atajo que completa tareas sin construir comprensión.
La clave es que hacer una tarea con IA no es lo mismo que aprender con IA. Cuando el alumno confía y no verifica, baja la calidad y la profundidad del aprendizaje. Y se apagan dos interruptores centrales: el pensamiento crítico y la metacognición (pensar sobre cómo se aprende).
Otro dato que incomoda: parte del tiempo “ahorrado” con IA se termina gastando en buscar maneras de no ser detectados, en lugar de invertirlo en entender. Es un cableado torcido: eficiencia para producir, pero no para comprender.
Muchas universidades ya promueven el uso de IA con formaciones para docentes y alumnos, y ofrecen herramientas de pago más adecuadas para el entorno académico. La Universidad Camilo José Cela, por ejemplo, impulsa formación continua, eventos como el Global Education Forum y financia investigaciones sobre este tema.
También te puede interesar:Amazon Anuncia 14.000 Despidos por IA: el Coste Humano de la Eficiencia RápidaSin embargo, el estudio también registra una desconfianza específica: varios estudiantes temen que esas herramientas institucionales comprometan su privacidad y que la universidad pueda acceder a sus consultas. Ese miedo, bien encauzado, podría convertirse en un mecanismo sano: exigir claridad sobre datos y, al mismo tiempo, desarrollar hábitos de verificación.
En la práctica, tres gestos simples pueden cambiar el resultado: pedir fuentes, comparar con al menos un material externo y usar la IA para explicar “por qué” y no solo “qué”. Como en la cocina, no alcanza con que el plato salga rápido: hay que mirar si alimenta.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.