En el World Schools Summit 2025, celebrado hace apenas unos meses, directores, docentes y expertos reconocían que están entrando en un territorio sin mapa claro. La gran cuestión no es si la IA estará en clase, sino quién la guía y qué tipo de alumnos queremos formar.
En ese encuentro, celebrado ante responsables escolares de todo el mundo, una voz destacó por encima del ruido tecnológico: la de Rebecca Winthrop, investigadora senior y directora del Centro para la Educación Universal de Brookings Institution. Los organizadores quisieron que la propia IA abriera el debate y pidieron a Copilot, la herramienta de Microsoft, que formulara la primera pregunta del panel.

Copilot planteó algo tan directo como incómodo: cuál es el cambio más transformador que deben hacer los sistemas educativos en la próxima década para que todos los niños, y no solo los privilegiados, puedan prosperar en un mundo atravesado por tecnología, cambio climático y migraciones.
Su respuesta no giró tanto alrededor de la inteligencia artificial en educación, sino alrededor de la propia escuela tal y como la conocemos. Señaló que los sistemas educativos del mundo están demasiado enfocados en el cumplimiento de normas y procedimientos rutinarios, y no tanto en formar alumnos capaces de tomar decisiones propias. Para que la IA sume, decía, primero hay que revisar qué tipo de aprendizaje estamos premiando.
Para ilustrar ese exceso de obediencia, citó una encuesta realizada en Estados Unidos según la cual los adolescentes siguen el doble de reglas que las personas presas. La imagen es dura, pero le sirve para mostrar cómo muchas aulas funcionan como espacios donde te evalúan casi solo por seguir instrucciones. Winthrop insiste en que las reglas hacen falta, pero no pueden ser el centro de todo.
En su análisis, ese énfasis exagerado en la obediencia frena lo que ella llama “agencia” del estudiante: la capacidad y el deseo de actuar con iniciativa. Si siempre esperas órdenes, te acostumbras a no proponer nada. Y ahí aparece un primer choque con la inteligencia artificial en educación, porque una tecnología que responde por ti puede reforzar todavía más esa costumbre de no mover un dedo por cuenta propia si se usa mal.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosLo que ella propone es transformar los sistemas educativos para que los alumnos aprendan a fijarse metas con sentido, a planificar cómo alcanzarlas y a aceptar que el aprendizaje exige esfuerzo y constancia. La IA puede acompañar ese proceso, pero no sustituirlo ni “hacerlo fácil” borrando el trabajo duro que hay detrás de cada logro real.

Winthrop lo resume con una idea clara: se necesita una generación de niños con límites y ética, pero también con muchas ganas de hacer cosas. No se trata de derribar todas las normas, sino de evitar que el mensaje principal sea “obedece y ya está”. Aquí aparece otra vez la tensión con la inteligencia artificial en educación: si la presentas como una herramienta que hace las tareas por ti, refuerzas esa pasividad que ella lleva décadas cuestionando.
Su mirada no nace de un laboratorio aislado, sino de una trayectoria muy pegada a la realidad. Creció en un pequeño pueblo de Oregon, rodeada de naturaleza, y habla de su infancia como algo glorioso por la libertad y el espacio para explorar. En la universidad descubrió los derechos humanos y decidió que quería ser abogada en ese campo. Todo apuntaba a una carrera jurídica clásica, hasta que una experiencia concreta lo cambió todo.
Comenzó como pasante en la oficina del Alto Comisionado de la ONU para los Refugiados en Centroamérica, participando en un proyecto para reformar leyes sobre violencia de género que incluyeran a mujeres refugiadas. En grupos focales, escuchó a víctimas que le dijeron algo que no esperaba: más allá de nuevas leyes, lo que necesitaban era aprender a leer y tener nociones de matemáticas para ser independientes.
Aquellas mujeres explicaban que el analfabetismo les impedía ir solas al médico porque no podían leer indicaciones, y que con matemáticas básicas podrían montar pequeños negocios y ganar su propio dinero. Ese choque con la realidad le hizo ver lo estrecho que puede volverse el mundo cuando alguien no sabe leer ni hacer cuentas simples. El acceso a servicios, a trabajo, a salud… todo queda bloqueado.
A partir de ahí empezó a entender la educación no solo como un derecho más, sino como un “derecho habilitante”, capaz de desbloquear otros muchos derechos. En palabras suyas, “cuando negamos educación, recortamos en silencio todas las demás oportunidades que una persona podría tener”. Ese giro personal la llevó a dejar a un lado la abogacía clásica y a centrarse en proyectos educativos en contextos difíciles.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteSu camino profesional continuó en escuelas del Bronx, en el distrito con más pobreza de Estados Unidos. Allí trabajó apoyando la integración educativa y laboral de personas que recibían asistencia social y de refugiados. Después coordinó programas de educación para adultos migrantes. En todos esos espacios se topó una y otra vez con el mismo obstáculo: una burocracia que complicaba cualquier cambio, tanto en las escuelas como en la propia ONU.
Ante esa frustración, Winthrop fue moviéndose hacia un terreno más vinculado a la reflexión, la investigación y el diseño de políticas. Quería influir en las reglas del juego, no solo pelear caso por caso dentro de sistemas muy rígidos. Tras su doctorado, pasó a dirigir el área de educación del Comité Internacional de Rescate, centrado en situaciones de emergencia humanitaria, un entorno donde la educación ni siquiera aparecía en la primera línea de prioridades.
Cuando se incorporó a ese sector, hacia el año 2000, la educación se veía como algo “secundario” frente a intervenciones básicas de supervivencia como el agua potable, el refugio o la seguridad física. La comunidad educativa insistía en reclamar recursos, aunque costaba encajar las escuelas dentro del concepto de “salvavidas” humanitario. Fue entonces cuando, junto a colegas, empezó a cambiar el relato.
Reformularon el argumento y defendieron que la educación en emergencias no solo salva vidas en ciertos casos, sino que “sostiene la vida” diaria de las personas refugiadas. Si miras los datos, entiendes por qué: la estancia media en un campo de refugiados puede llegar a 17 años. Sin escuela, todo ese tiempo se convierte en un vacío de desarrollo. Con educación, en cambio, mantienes vínculos, rutinas, proyectos y un mínimo de futuro posible.
De ese esfuerzo colectivo nació la Red Interagencial para la Educación en Emergencias (INEE). Lo que empezó como un pequeño grupo de organizaciones que compartían recursos y materiales adaptados a contextos de crisis terminó generando estándares mínimos para la educación en emergencias. Hoy esos estándares son adoptados por gobiernos y financiadores internacionales y sirven como referencia de qué debe garantizarse incluso en medio del caos.
Esa experiencia refuerza una idea clave de Winthrop: muchas veces resulta más sencillo diseñar un sistema educativo nuevo que reformar uno ya consolidado con edificios, normas y costumbres muy arraigadas. También por eso cuestiona la clásica separación entre el Ministerio de Educación y el de Trabajo. Para ella, tener dos estructuras que casi no se hablan carece de sentido cuando la formación y el empleo están tan conectados.
Sostiene que integrar o coordinar de forma estrecha ambos ministerios permitiría alinear mejor lo que se enseña en la escuela con las realidades del mercado laboral, sin reducir la educación a “formar mano de obra barata”. La idea es que educación y trabajo compartan objetivos de fondo, de forma que los jóvenes no salgan con títulos decorativos, sino con competencias que les sirvan para construir vidas dignas y flexibles en un mundo cambiante.
Con esa mirada estructural llegó Winthrop al debate sobre la inteligencia artificial en educación. En septiembre de 2024, en colaboración con Brookings, se creó un Grupo de Trabajo Mundial sobre IA y Educación para estudiar el impacto de la IA, especialmente la generativa, en niños en edad escolar. El objetivo era muy concreto: evitar repetir los errores cometidos con las redes sociales cuando se integraron en la vida diaria sin preparar a escuelas y familias.
Esta vez, querían que educadores, madres, padres y responsables escolares sí participaran desde el principio en el diseño de reglas y usos. En el caso de las redes sociales, la ausencia de estos actores permitió que crecieran fenómenos como la desinformación o la propagación de discursos de odio. Se esperaba creatividad y conexión y, aunque llegaron, vinieron acompañadas de consecuencias mucho más complejas y a menudo dañinas para los menores.
El Grupo de Trabajo Mundial quiso anticiparse y, antes de que la inteligencia artificial en educación se implantara de forma masiva, intentar detectar riesgos. Para ello realizaron un estudio en 50 países, con entrevistas a padres, estudiantes, docentes y tecnólogos. No se limitaron a encuestas online: hablaron en profundidad con personas en contextos muy distintos, desde grandes ciudades conectadas hasta zonas rurales con acceso limitado.
El informe resultante, cuya publicación está prevista para el 14 de enero, apunta a una idea que te afecta directamente si eres docente, padre o estudiante: la IA generativa no impacta igual a todos. Los jóvenes que tienen una buena base de conocimientos y alta motivación tienden a usarla para reforzar su aprendizaje, mientras que quienes parten con menos preparación o menos ganas pueden salir claramente perjudicados.
Cuando un alumno domina el contenido de una materia y quiere entender mejor, la inteligencia artificial en educación puede servirle para organizar ideas, explorar ejemplos nuevos o revisar dudas concretas. Pero si la base de conocimientos es muy débil, la IA tiene más margen para generar respuestas menos precisas que el estudiante no sabe detectar. El riesgo es que crea estar aprendiendo cuando, en realidad, está fijando errores.
Por eso el informe insiste en algo que suena obvio, pero se olvida rápido en el entusiasmo tecnológico: no podemos equiparar la experiencia de un adulto ya formado que usa IA con la de un niño que todavía está aprendiendo contenidos básicos. En los primeros cursos, el conocimiento de contenido sigue siendo el corazón del proceso. La IA debe sumar como apoyo, pero no desplazar ni sustituir ese trabajo lento de entender, recordar, practicar y aplicar.
Otro factor clave que detecta el estudio es la motivación. Según los testimonios recogidos, cuando un alumno está realmente interesado en un tema, tiende a pedirle a la IA que le explique mejor, que le dé ejemplos, que le proponga ejercicios. Ahí la inteligencia artificial en educación puede amplificar el esfuerzo del propio alumno. Cuando no hay interés, la tentación es usarla para hacer el mínimo esfuerzo posible, o directamente para que haga el trabajo entero.
Resulta interesante que una parte importante de los usos más potentes que encontraron los investigadores ocurre fuera del aula. Hay estudiantes que toman sus notas de clase y las convierten en pódcast con IA para escucharlas mientras van en metro. Otros usan herramientas de creatividad generativa para hacer pequeñas películas o proyectos visuales que dan vida a los temas que están estudiando. La IA, en estos casos, se convierte en un amplificador de curiosidad.
Estos ejemplos muestran cómo la inteligencia artificial en educación puede apoyar los intereses del alumnado y expandir la forma en que aprenden, siempre que exista una base de conocimiento y un deseo de hacer cosas. El informe sugiere que las escuelas harían bien en fijarse en estos usos positivos que ya existen y buscar la manera de trasladarlos al aula de forma estructurada, en lugar de verlos solo como “trucos personales” de algunos alumnos.
El mismo informe también lanza advertencias que no conviene ignorar. Una de las principales es que, si un niño no domina bien el contenido y no está motivado, la IA generativa puede dañar seriamente su aprendizaje. No es solo que las respuestas sean a veces poco fiables, sino que aparece una promesa muy seductora: la idea de que se puede aprender sin esfuerzo, simplemente escribiendo unas pocas palabras en una caja de chat.
Aquí Winthrop es especialmente tajante. Considera profundamente problemático que un alumno crea que escribir un ensayo equivale a poner tres frases en un modelo de lenguaje y entregar lo que sale como si fuera propio. Ese “aprendizaje sin esfuerzo” erosiona la esencia misma de aprender, que implica equivocarse, revisar, mejorar, discutir y dedicar tiempo. Cualquier uso de la inteligencia artificial en educación que borre esa implicación personal se considera un mal uso.
También avisa de otro riesgo menos evidente: el aislamiento. Si la IA se convierte en la compañera principal para resolver tareas, puede reducir la interacción entre estudiantes y disminuir el trabajo en equipo. El aprendizaje se vuelve más solitario y automático, con menos debate, menos preguntas en voz alta y menos conflicto creativo en el aula. La tecnología, en lugar de conectar, puede reforzar burbujas individuales.
Winthrop no propone prohibir la IA ni mantenerla fuera de las escuelas. Al contrario, insiste en que los niños deben aprender a relacionarse con modelos de lenguaje artificial, pero acompañados por adultos. Sugiere que los centros reserven, por ejemplo, una hora semanal para que los alumnos experimenten libremente con IA bajo supervisión. Esa hora no es para producir tareas perfectas, sino para explorar, probar cosas “tontas” y comentar qué está pasando.
Lo interesante es que incluso esas pruebas que parecen banales forman parte del aprendizaje sobre cómo funciona la inteligencia artificial en educación. Cuando un niño le pide al sistema que genere un chiste absurdo, o una canción con letras disparatadas, está midiendo respuestas, viendo límites, detectando sesgos. Con la guía de un adulto, puede ir entendiendo qué hace bien la IA, en qué se equivoca y cuándo conviene desconfiar.
Desde esta perspectiva, Winthrop propone que las instituciones elaboren lineamientos claros para el uso de la IA en educación. Esas pautas deberían priorizar enfoques que fomenten la participación activa del estudiante y el aprendizaje profundo, no simplemente la entrega de productos bonitos. También tendrían que incentivar proyectos colaborativos y conectar la escuela con la comunidad local, de forma que la tecnología no se quede encerrada en la pantalla.
Entre los ejemplos que destaca hay proyectos escolares en los que los alumnos realizan encuestas sobre los árboles nativos de su barrio y usan la IA para analizar las respuestas y presentar resultados. En estas actividades, la inteligencia artificial en educación actúa como una herramienta que ayuda a ordenar datos, generar visualizaciones o plantear hipótesis, pero el trabajo de observar, preguntar y tomar decisiones sigue en manos de los estudiantes.
En el lado negativo, el informe pone como ejemplo los ensayos generados casi íntegramente por IA con participación mínima del alumno. En esos casos, no solo se pierde la oportunidad de aprender a escribir, sino que se envía el mensaje de que lo importante es entregar algo que parezca correcto, da igual quién lo haya elaborado. Se produce una desresponsabilización clara respecto al proceso de aprender, que se reduce a pulsar botones.
Para Winthrop, el objetivo siempre debería ser que la inteligencia artificial en educación amplifique el aprendizaje, no que lo reemplace ni lo vacíe de contenido y esfuerzo. Si una herramienta genera automáticamente un resumen, el siguiente paso tendría que ser que el alumno lo compare con sus propios apuntes, detecte lagunas, pregunte al profesor y, si hace falta, reescriba partes con sus palabras. Esa combinación de tecnología y trabajo personal es la que realmente construye conocimiento.
En algunos países, la discusión ya se ha vuelto más concreta. En India, por ejemplo, ya hay robots que asisten dentro del aula, lo que muestra la velocidad a la que avanza la automatización del espacio escolar. Esto ha llevado a varios responsables educativos a hacerse una pregunta inquietante: si la inteligencia artificial en educación puede explicar contenidos y corregir ejercicios, ¿podría también sustituir a los docentes en contextos con escasez de maestros?
Winthrop recoge esa preocupación en sus intervenciones y advierte de un riesgo doble. Por un lado, confiar en que la IA generativa reemplace a profesores puede reforzar desigualdades, destinando “maestros humanos” a quienes ya tienen más recursos y “profesores-robot” a los alumnos más vulnerables. Por otro, una implementación torpe podría desatar una reacción social de rechazo frontal a la tecnología, similar a la que ya se ha visto con ciertas redes sociales.
En lugar de esa sustitución, ella insiste en el papel insustituible del docente como guía, mediador y referente. Los maestros tienen una influencia muy poderosa en la vida de los niños y pueden modelar buenas prácticas de uso de la IA. Si adoptan una “mentalidad de modo explorador”, como ella la llama, vas a poder experimentar junto con tus alumnos, reconocer lo que no sabes, preguntar a la propia tecnología y discutir las respuestas abiertamente.
Esa mentalidad exploradora no significa dejar toda la responsabilidad sobre tus hombros, ni convertirte en experto técnico de la noche a la mañana. Significa aceptar que la inteligencia artificial en educación está ya en la mochila digital de tus estudiantes y que tu rol es acompañarles para que la usen de forma responsable, creativa y crítica. Puedes enseñarles a comparar fuentes, a detectar errores de la IA y a entender que una respuesta elegante no siempre es una respuesta correcta.
Winthrop ha expresado su intención de trabajar de forma específica en cómo ayudar a los docentes a desarrollar esta manera de mirar la innovación. Para ella, los profesores no deben ser los únicos líderes del proceso, pero sí una pieza central en la definición de normas y prácticas. Si el profesorado se implica desde el principio, las políticas sobre inteligencia artificial en educación tendrán más en cuenta lo que pasa de verdad en el aula, y no solo lo que diseñan las empresas tecnológicas desde lejos.
El reconocimiento a esta trayectoria llegó al cierre del World Schools Summit 2025, cuando Rebecca Winthrop recibió el Premio a la Trayectoria Profesional. Se declaró muy honrada y dijo que le inspira ver el trabajo creativo e “innovador” que se está haciendo en educación en tantos países.
Ese cierre resume bien el mensaje de fondo: la tecnología puede cambiar rápido, pero lo decisivo sigue siendo cómo tú, como docente, padre, estudiante o responsable político, decides integrarla para formar mentes curiosas, críticas y con ganas de actuar.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.