La escena se repite en universidades de todo el mundo: trabajos perfectamente escritos, sin faltas, con citas ordenadas… y una duda creciente en el profesor sobre quién ha redactado realmente ese texto. En este caso, un docente decidió comprobarlo con una técnica nueva que convierte a ChatGPT en su propio delator, y el resultado ha encendido el debate sobre la inteligencia artificial en las aulas.
La historia ocurre en una clase de primer curso de Historia, en una universidad estadounidense, durante un trabajo sobre “La Rebelión de Gabriel”, una obra que narra un intento de levantamiento de esclavos en el año 1800, cerca de Richmond. El profesor sospechaba que muchos alumnos usaban inteligencia artificial para escribir, pero las herramientas antiplagio clásicas no detectaban nada raro.

Si lo piensas, las normas actuales se han quedado desfasadas. Las herramientas antiplagio están preparadas para cazar el típico copia y pega de Wikipedia o de blogs, pero no para textos nuevos creados desde cero por un asistente virtual. Hoy puedes pedir a una inteligencia artificial que te escriba un ensayo “original” que pase casi cualquier detector clásico, y ahí está el problema de fondo.
Muchos estudiantes ya lo hacen. Distintas encuestas internas en centros universitarios, recogidas por asociaciones académicas, señalan que una parte significativa de alumnos ha usado asistentes virtuales al menos para una tarea de clase. Algunos solo para corregir estilo, otros para redactar secciones enteras. Casi ninguno percibe eso como hacer trampas, sino como una ayuda más, similar a un corrector ortográfico avanzado.
El profesor de esta historia decidió ir un paso más allá. En vez de prohibir a la inteligencia artificial, buscó la forma de dejar que los propios alumnos se delataran al pedirle ayuda a ChatGPT. ¿Cómo? Escondiendo en el enunciado de la tarea un mensaje que los ojos humanos no veían, pero que la IA sí podía leer cuando alguien copiaba y pegaba el texto completo en el chat.
Esos bloques ocultos contenían instrucciones superfluas, es decir, cosas que ningún profesor razonable pediría en serio para esa obra. Entre ellas, una petición llamativa: analizar “La Rebelión de Gabriel” desde una “lectura marxista”, un enfoque muy poco pertinente para este libro concreto. El objetivo era claro: si ese marco teórico aparecía luego de manera insistente en el ensayo, había muchas papeletas de que la inteligencia artificial estaba detrás.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosEl plan se probó con 122 trabajos de primer año. Tras la corrección, el resultado fue sorprendente incluso para el docente: 33 ensayos incluían de forma sistemática la famosa perspectiva marxista. No era una simple mención suelta, sino un hilo repetido a lo largo del texto, como si el alumno hubiera seguido una plantilla teórica sin entenderla de verdad.
El profesor, antes de señalar casos concretos, hizo algo clave. Lanzó a toda la clase una apelación a la honestidad y pidió que cualquiera que hubiese usado inteligencia artificial lo dijera, con la promesa de revisar el caso. A raíz de ese mensaje, 14 estudiantes más reconocieron haber recurrido a ChatGPT u otras herramientas. Con todo, casi el 39 % de los trabajos entregados estaban implicados de un modo u otro.
Algunos alumnos reaccionaron con enfado. Protestaron porque, según ellos, habían sido sospechosos solo por escribir “demasiado bien” para su nivel, o por tener un estilo de redacción muy correcto. Esta respuesta refleja un temor real: muchos estudiantes sienten que, si su texto suena pulido, el profesor asumirá que ha pasado por una inteligencia artificial.
Pero el detalle que terminó de romper su defensa fue otro. Ninguno de los que hablaban continuamente del marxismo en sus ensayos fue capaz de explicar en clase qué es el marxismo ni por qué ese marco analítico encajaba con el libro. Era un término que usaban sin saber, casi como un adorno intelectual pegado al texto por inercia.
El profesor relató que, en algunos casos, la propia IA llegó a preguntar en el chat algo del estilo: “¿Quieres que integre esta lectura marxista en el ensayo?”. Y varios estudiantes pulsaron aceptar sin pensarlo mucho, solo porque, según contaron después, “sonaba serio”. Ese clic rápido resume una parte importante del problema: delegas el criterio en la máquina porque confías en que ella sabrá más.
A partir de aquí, el caso salió del aula y entró en el debate más amplio sobre cómo encaja la inteligencia artificial en la educación superior. Cada vez más profesores se encuentran con trabajos pulidos, sin plagio directo, pero claramente desconectados del nivel real del alumno. Y la técnica de las instrucciones ocultas muestra una cosa incómoda: si le das el enunciado entero a un generador de texto, puede seguir pasos que tú ni siquiera has visto.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional Adolescente
La Asociación Histórica Americana propone una vía distinta a la pura prohibición. Recomienda formar a los estudiantes en el análisis crítico de ensayos generados por máquinas, enseñándoles a detectar errores, sesgos o afirmaciones poco justificadas. Según esta línea, la inteligencia artificial se convierte en un objeto de estudio, no solo en un problema a vigilar. Como recogía un documento reciente, “un buen historiador en formación debe aprender a leer también lo que escribe la máquina”.
Parte del profesorado no lo ve tan claro. Muchos se preguntan cómo evaluar con justicia un texto producido, en gran parte, por inteligencia artificial. Si ni el propio alumno ha entendido a fondo lo que ha entregado, y el docente tampoco domina del todo ese marco teórico, ¿quién está realmente siendo evaluado? Ignorar el uso de ChatGPT tampoco parece una opción realista.
Otro problema es la falta de un marco común. Hoy cada universidad, e incluso cada facultad, define sus propias reglas sobre el uso aceptable de la inteligencia artificial. Hay centros que la prohíben casi por completo y otros que la permiten como ayuda para corregir estilo, siempre que el alumno lo declare. Esta disparidad crea un entorno confuso, donde tú puedes pensar que haces lo correcto y, en otra asignatura, esa misma práctica se considera engaño.
En ese contexto, muchos estudiantes aseguran que no eran conscientes de estar haciendo trampa. Para ellos, la inteligencia artificial es un apoyo para escribir, como lo fue en su día el corrector ortográfico o el traductor automático. El matiz está en el grado: una cosa es pulir frases y otra, muy distinta, dejar que ChatGPT genere el argumento central, la estructura del ensayo y buena parte de las ideas.
Tras destapar la trampa marxista, el profesor no se quedó solo en castigar. Buscó una respuesta pedagógica que pusiera el foco precisamente en la inteligencia artificial y en cómo se usa. Encargó a los estudiantes implicados un nuevo ensayo crítico, esta vez sobre la propia IA, a partir de un texto escrito por un profesor de filosofía especializado en ética y tecnología. Y, de nuevo, incluyó una trampa oculta similar para comprobar quién seguía tirando de escritura automatizada.
De los 47 alumnos inicialmente relacionados con el caso, 36 entregaron la segunda tarea. El resto, 12 estudiantes, fueron abandonando la asignatura de forma gradual, quizá por incomodidad, por miedo a suspender o porque no querían afrontar el nuevo nivel de control. Lo llamativo es que, en esta nueva ronda, solo un estudiante volvió a recurrir de forma clara a un texto generado por una inteligencia artificial.
Al corregir estos nuevos ensayos, el profesor encontró algo que va más allá del simple engaño. Muchos alumnos confesaban, de manera explícita, que temían “no escribir lo suficientemente bien sin IA”. Esa frase resume una inseguridad académica profunda: sienten que, sin la ayuda de ChatGPT u otro asistente, sus textos no estarán a la altura de lo que se espera en la universidad.
Estas confesiones dejan ver dos tendencias que se mezclan. Por un lado, el atractivo cada vez mayor de las herramientas de escritura automatizada, que prometen velocidad, corrección y un estilo siempre ordenado. Por otro, el riesgo claro de que esa comodidad sustituya al aprendizaje real, a la práctica de redactar, equivocarte, corregir y encontrar tu voz propia. Si delegas todo en la máquina, tu curva de mejora se frena.
La inteligencia artificial aplicada a la escritura no va a desaparecer de las aulas, ni de la vida diaria. Las cifras de uso, tanto en 2023 como en 2024, muestran un crecimiento constante de usuarios que recurren a asistentes como ChatGPT para correos, informes o trabajos. La cuestión ya no es tanto si debes usarla, sino cómo y hasta qué punto, sin que robe el espacio que necesitas para desarrollar tus propias habilidades.
En los próximos cursos, vas a ver más normas claras en las guías docentes, más tareas diseñadas para comprobar tu capacidad de análisis en clase y quizá más trucos como el de los mensajes ocultos en enunciados. Si un trabajo encaja demasiado bien con una instrucción absurda o irrelevante, es probable que el profesor sospeche del uso de inteligencia artificial. Y, Esa misma IA puede convertirse en una herramienta útil si la usas para aprender y no para esconderte.
Este caso muestra que los profesores también están aprendiendo a relacionarse con la tecnología y que la inteligencia artificial ya forma parte del día a día académico. Si quieres seguirle el paso, te conviene entender cómo funcionan estos sistemas, qué pueden hacer por ti y dónde empieza el riesgo de que hagan el trabajo en tu lugar. Entre una prohibición absoluta y un uso sin control hay un punto intermedio que, poco a poco, las universidades intentan definir, y tu forma de usar ChatGPT en los próximos meses va a ser parte de esa negociación silenciosa.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.