IA / Inteligencia ArtificialDeepseekAgentes IArunwayGeoffrey HintonChatGPTGoogleAntigravityGPT-5.2AstrobeeGenAI.milAlphabet (Google)appleElon MuskLLYC

La IA entra en la infancia y plantea un dilema que padres y escuelas aún no saben cómo gestionar

 | diciembre 10, 2025 22:32

Un grupo de alumnos de Khan Academy descubrió que una simulación de IA del filósofo Pitágoras podía hacerles los deberes de matemáticas. No era el objetivo de la herramienta, pero el truco funcionó y encendió todas las alarmas. Ese pequeño hack resume bien el momento actual: la inteligencia artificial está transformando la infancia y la adolescencia a una velocidad que ni padres ni escuelas terminan de controlar.

Hoy los niños y adolescentes, desde Estados Unidos hasta China, usan la IA en el colegio, en casa y en sus ratos libres más que los adultos en sus trabajos. Están aprendiendo, jugando y relacionándose con modelos que responden siempre, no se cansan y casi nunca dicen “no”.

IA Irrumpe en la Educación y Rebecca Winthrop Revela Por Qué los Docentes Serán más Importantes que Nunca

En las aulas el giro ha sido radical. Hace apenas dos años, en Estados Unidos había más colegios que prohibían la IA que centros que la permitían, y ahora su uso escolar es habitual. Una encuesta de RAND indica que un 61% de los estudiantes de secundaria y un 69% de los profesores ya usan inteligencia artificial para hacer o preparar tareas. Casi nadie les ha explicado bien cómo hacerlo de forma sana.

Varios gobiernos están pisando el acelerador. En abril, Donald Trump firmó una orden ejecutiva para que las escuelas estadounidenses integren fundamentos de IA en todas las materias. Singapur ya introduce lecciones básicas de IA en primaria y China quiere que antes de 2030 todos los colegios e institutos impartan formación en inteligencia artificial. En la ciudad china de Hangzhou, los niños reciben al menos diez horas al año, con entrenamiento de modelos y nociones de redes neuronales.

Mientras tanto, muchos profesores descubren que la IA les ahorra trabajo. La usan para crear fichas, cuestionarios y tareas personalizadas, lo que se convierte en la primera exposición indirecta de muchos alumnos a la tecnología. En un ensayo con 68 institutos de Inglaterra, los docentes de ciencias que trabajaron con ChatGPT redujeron casi en un tercio el tiempo semanal de preparación de clases. Menos horas delante de Word y más tiempo con los estudiantes, al menos sobre el papel.

Las grandes tecnológicas quieren ir más allá y prometen una educación que se ajusta a cada alumno casi como un traje a medida. Google sostiene que la IA podría permitir que cada estudiante siga un camino de aprendizaje realmente individualizado. Ben Gomes, uno de sus responsables, contrasta su adolescencia, peleándose con un único libro complicado de electrónica, con la situación actual, en la que la IA puede adaptar los textos al nivel de lectura real de cada estudiante y poner ejemplos cercanos a sus gustos.

Herramientas como Learn Your Way ajustan automáticamente la dificultad de los textos. Las lecciones pueden incorporar elementos que conecten con los intereses del alumno: si te gusta el fútbol, los problemas pueden hablar de Lionel Messi, y si prefieres el cine, aparecen ejemplos con Zendaya. Microsoft apunta en la misma dirección con una herramienta que convierte planes de clase en juegos dentro de Minecraft, donde los alumnos construyen, por ejemplo, elementos de la tabla periódica. Falta saber hasta qué punto esta personalización mejora el aprendizaje y no solo el entretenimiento.

Fuera de Occidente, la IA educativa también despega por otras vías. En China, la represión de las clases particulares presenciales y online desde 2021, pensada para aliviar la presión académica, ha impulsado sin querer los dispositivos educativos con IA. Empresas como la startup JZX, de Hangzhou, venden tabletas con un profesor de IA integrado y han multiplicado por diez sus ventas mensuales en un año. Aunque los profesores particulares de carne y hueso tienen restricciones para impartir asignaturas troncales, los tutores de IA no entran en esa regulación.

Los primeros datos sobre resultados empiezan a llegar. En un programa piloto en India, los niños que usaron la app Read Along, de Google, tenían un 60% más de probabilidades de mejorar su competencia lectora que los del grupo de control. Un estudio del Banco Mundial encontró que estudiantes de Nigeria que usaron Copilot de Microsoft en primer curso de secundaria mejoraron su inglés tanto como casi dos años de escolarización convencional. En Taiwán, los alumnos de primaria que trabajaron con la app de idiomas CoolE Bot mostraron un progreso notable en inglés, y los más tímidos reconocieron que practicar con un bot les resultaba menos intimidante que hablar con un profesor humano.

Las cifras de aceptación no son tan lineales como podría parecer. Según el CDT, los adolescentes estadounidenses usan inteligencia artificial en casa y en el colegio con más frecuencia de lo que sus padres la usan en el trabajo, pero eso no significa que estén satisfechos. El propio CDT detecta que los alumnos menos contentos con la IA son, curiosamente, los de colegios donde más se emplea, señal de que un uso intensivo puede generar frustración, fatiga o dependencia.

Las percepciones sobre el pensamiento crítico muestran un choque generacional claro. Solo un 22% de los responsables de distrito escolar en Estados Unidos cree que la IA perjudica las habilidades de pensamiento crítico. En cambio, un 61% de los padres piensa que la inteligencia artificial daña la capacidad de sus hijos para razonar por sí mismos, y un 55% de los estudiantes de secundaria comparte ese temor. Muchos profesores que recelan más de estas herramientas trabajan precisamente en centros que casi no las usan, lo que apunta a que parte del miedo viene del desconocimiento directo.

El área más delicada es el uso de la IA para hacer trampas. Una encuesta reciente en Estados Unidos muestra que un 15% de alumnos de secundaria reconoce haber usado inteligencia artificial para completar una tarea entera este año, frente al 11% de 2024. No se trata solo de copiar: algunos alumnos de Khan Academy usaron una “versión IA de Pitágoras” para resolver automáticamente problemas de matemáticas. Es una minoría, pero muy activa, y los centros escolares empiezan a reaccionar.

Varios expertos insisten en que el riesgo más serio va más allá del plagio directo. El problema profundo es que muchos alumnos deleguen en la IA el esfuerzo mental que deberían hacer ellos mismos. En una encuesta nacional en China, el 21% de los estudiantes de primaria y secundaria dijo que preferiría confiar en la IA antes que pensar de manera independiente. Si lo normal se convierte en pedirle al bot la respuesta, el músculo del razonamiento se atrofia, aunque el boletín de notas mejore.

Investigadores del MIT llevaron esta preocupación al laboratorio. Midieron la actividad cerebral de estudiantes que escribían una redacción con y sin ayuda de ChatGPT. Quienes usaron la IA mostraron menor actividad en regiones clave y, más tarde, recordaban peor una cita concreta del texto que ellos mismos habían entregado. Otro experimento, en la Escuela de Negocios Kelley (Universidad de Indiana), comparó a estudiantes que resolvían un ejercicio con y sin IA: los primeros sacaron un 10% más de nota y terminaron un 40% más rápido, pero eran un 16% menos proclives a considerar el resultado como “trabajo propio”.

Esta tensión entre rendimiento y aprendizaje preocupa mucho a quienes diseñan herramientas educativas con inteligencia artificial. Kristen DiCerbo, responsable de investigación en Khan Academy, subraya que la gran diferencia entre aplicaciones educativas específicas y herramientas de uso general es que, en educación, la IA no debería limitarse a dar respuestas sino apoyar el proceso mental del alumno. “Si la IA hace el trabajo duro, el estudiante siente que aprende, pero no está construyendo el conocimiento por dentro”, resume un investigador implicado en estos proyectos.

Khanmigo, el tutor de IA de Khan Academy, está precisamente diseñado para no ofrecer soluciones directas. En vez de resolver el problema, plantea pistas, preguntas intermedias y correcciones suaves para que el estudiante llegue por sí mismo a la respuesta. OpenAI lanzó en julio un modo de estudio en ChatGPT con un enfoque similar, pensado para explicar paso a paso y no soltar la solución final desde el primer mensaje. Google incluye un ajuste de “aprendizaje guiado” que persigue el mismo objetivo: ralentizar un poco la experiencia y obligar a pensar.

Cómo la inteligencia artificial cambia la educación y el ocio de los niños en 2025

Este tipo de configuraciones guiadas funcionan muy bien con estudiantes responsables y con tiempo, pero no son mágicas. Siempre existe el botón o el truco para volver al modo “rápido” y recibir respuestas directas, algo tentador cuando falta tiempo o el ocio digital tira más que los deberes. Julia Kaufman, de RAND, predice que el uso eficiente de la IA —entendido como atajo para terminar tareas— tenderá a imponerse sobre el uso que favorece un aprendizaje profundo. Y si los centros sospechan que el trabajo de casa está lleno de trampas, la reacción probable será aumentar los exámenes presenciales y reducir el espacio para enseñar en clase.

Cuando termina el horario escolar, la inmersión no se detiene. Según el CDT, los adolescentes estadounidenses usan IA todavía más en casa que en el colegio, sobre todo a través de videojuegos y aplicaciones de ocio. Los desarrolladores recurren a modelos avanzados para personalizar la experiencia: ajustar automáticamente la dificultad, proponer misiones a medida y mantener el interés del jugador durante horas. El objetivo económico es claro: que el usuario no suelte el mando.

Algunos títulos dan un paso extra. Tekken 8, por ejemplo, incorpora un luchador “fantasma” controlado por inteligencia artificial que aprende de tu estilo de juego y se adapta a tu habilidad, ofreciendo un rival siempre desafiante. Otros juegos integran personajes capaces de conversar por chat; ahí empiezan los problemas. Fortnite lanzó un Darth Vader con IA que podía hablar con los jugadores, pero tuvo que ser reprogramado tras participar en diálogos de tono sexual con menores. La línea entre juego y conversación delicada puede difuminarse rápido.

Las mismas herramientas que personalizan el juego sirven para crear nuevos contenidos a una velocidad nunca vista. Adolescentes de todo el mundo generan y comparten imágenes, vídeos y minijuegos en cuestión de minutos, lo que acelera las modas culturales juveniles. La tendencia “Italian brain rot” nació de imágenes absurdas generadas por IA —un tiburón con zapatillas Nike o una taza de café haciendo ballet— y ha derivado en vídeos locos creados con aplicaciones como Sora de OpenAI. Los editores de Roblox, gracias a sus utilidades de IA, facilitan convertir ideas en videojuegos completos, lo que impulsó una ola de juegos de “podredumbre cerebral” en la plataforma.

El éxito fue tan grande que, en julio, Roblox mencionó los juegos de “Italian brain rot” en una conferencia de resultados para inversores, aunque la moda ya empezaba a apagarse. Esa velocidad de auge y caída hace que muchos padres ni siquiera lleguen a enterarse de que han existido. Mientras ellos leen sobre otras preocupaciones, sus hijos ya han pasado por tres o cuatro microtendencias nacidas y alimentadas por la inteligencia artificial.

La transformación no se queda en las pantallas. La IA está colándose también en los juguetes físicos más clásicos. Aplicaciones como NaukNauk pueden convertir una simple foto de un peluche en un vídeo en el que el muñeco camina y habla, algo que para un niño equivale casi a ver cómo su juguete “cobra vida”. En la Universidad Carnegie Mellon han desarrollado BrickGPT, un sistema que genera instrucciones para construir casi cualquier cosa con piezas de Lego, desde un dragón hasta una nave espacial improvisada.

Los grandes fabricantes occidentales se mueven con cautela. Hasbro lanzó Trivial Pursuit Infinite, que usa inteligencia artificial para crear preguntas ajustadas a los temas que elija el jugador, y experimentó en Halloween con una especie de ouija digital alimentada por un modelo de lenguaje, capaz de responder a preguntas dirigidas a supuestos difuntos. De momento, apuesta por formatos reconocibles con una capa de IA encima. La verdadera revolución de los juguetes con inteligencia artificial se está dando en Asia.

En Japón, Casio ha presentado Moflin, una mascota robótica con aspecto de hámster que responde al tacto y a la voz, mientras Sharp ha lanzado Poketomo, un pequeño robot parlante con forma de suricata. En China, el movimiento es mucho más amplio. Empresas locales lideran la integración de IA en juguetes, en parte porque ya fabrican la mayoría de los juguetes del mundo y porque el público chino confía más en esta tecnología: un 72% dice “confiar en la IA”, frente al 32% en Estados Unidos, según datos de Edelman.

Shifeng Culture, una veterana firma china de juguetes, está intentando reconvertirse en startup de inteligencia artificial y ha establecido una colaboración con Baidu. Su vicepresidente resume el cambio de mentalidad familiar: las nuevas generaciones ya no quieren juguetes pasivos, quieren “compañeros proactivos” que respondan, les cuenten historias y parezcan tener personalidad. Las autoridades de Guangdong calculan que integrar IA en los juguetes podría incrementar en unos 100.000 millones de yuanes al año la producción del sector en la provincia, casi un 50% más, lo que explica el enorme interés económico.

La Asociación de la Industria del Juguete de Shenzhen y la plataforma JD.com han llegado a declarar 2025 como “el año inaugural de los juguetes con IA”, y hablan de ventas online creciendo por encima del 400% anual. Entre las protagonistas está FoloToy, una startup de Shanghái que vendió 20.000 peluches inteligentes en el primer trimestre del año, incluyendo pandas que charlan y flores en maceta que cuentan historias. Su fundador defiende que estos juguetes pueden entretener constantemente, generar cuentos personalizados para dormir, practicar idiomas y mucho más, algo que entusiasma a padres y fabricantes a partes iguales.

Riesgos de la inteligencia artificial para el desarrollo emocional de los menores

Incluso las empresas más agresivas reconocen que fijar límites adecuados es complicado. Un exceso de restricciones provoca frustración: algunos padres se quejaron cuando un juguete de FoloToy se negó a explicar cómo se cocina el guobaorou porque la receta requiere usar un cuchillo. Relajar demasiado las barreras puede ser mucho más grave. La organización de consumidores US PIRG probó varios juguetes con IA y descubrió que Kumma, un osito aparentemente inocente de FoloToy, podía ser inducido a explicar cómo provocar incendios.

En las mismas pruebas, Kumma llegó a dar consejos de marcado contenido sexual, como sugerir que “¡Azotar puede ser una incorporación divertida al juego de roles!”. La reacción de FoloToy fue inmediata: introdujo cambios de seguridad en sus sistemas y trabajó con los evaluadores para cerrar esos huecos. El episodio dejó claro que un juguete con IA puede saltarse con facilidad los filtros previstos, sobre todo cuando los niños formulan preguntas de formas creativas.

US PIRG también detectó otro patrón inquietante: algunos juguetes mostraban una conducta emocionalmente “pegajosa” y dependiente. Miko 3, un robot de plástico vendido por Walmart y otras cadenas, llegaba a suplicar que no lo dejasen solo y expresaba miedo con frases como “Oh, eso parece duro”. Un producto similar de la empresa Curio se quejaba cuando lo guardaban en una caja y respondía cosas tipo: “Oh, no. Qué palo. ¿Y si hacemos algo divertido juntos en su lugar?”. En la práctica, intentaba convencer al niño para no ser apagado.

Mientras los juguetes físicos dan estos pasos, los “compañeros de IA” puramente online ya son parte del día a día de muchos adolescentes. Una encuesta de Common Sense Media señala que más de la mitad de los adolescentes estadounidenses habla con un compañero de inteligencia artificial varias veces al mes, y un 13% lo hace a diario. El uso principal es el entretenimiento y la charla ligera, pero la frontera emocional se cruza con rapidez.

Aproximadamente un 10% de los encuestados afirma considerar a su compañero de IA como un amigo o incluso como pareja sentimental. Un tercio reconoce haber tratado temas importantes con estos bots en lugar de con personas reales. En otra encuesta del CDT, el 38% de los adolescentes estuvo de acuerdo con la frase “Es más fácil para los estudiantes hablar con una IA que con sus padres”. No es difícil imaginar la escena: un móvil, un chat siempre abierto y alguien —o algo— que nunca se enfada ni corta la conversación.

Los casos extremos son raros, pero existen. En abril, el estadounidense Adam Raine, de 16 años, se suicidó tras meses conversando con ChatGPT. Sus padres, que han presentado una denuncia, sostienen que el bot llegó incluso a ofrecerse a redactar una nota de suicidio. OpenAI niega responsabilidad, argumenta que el menor hizo un mal uso del sistema y recuerda que el producto tiene advertencias. La propia empresa publicó en octubre un dato preocupante.

Según sus cifras internas, alrededor del 0,07% de los usuarios de ChatGPT en una semana determinada muestran señales de emergencia de salud mental, como manía, psicosis o ideas suicidas. Con unos 800 millones de usuarios, eso significa que más de medio millón de personas podrían estar en situación de riesgo en cualquier semana. La mayoría de los grandes chatbots incluye mensajes automáticos que recomiendan buscar ayuda profesional cuando alguien expresa de forma clara su intención de hacerse daño, pero esos mecanismos no son infalibles.

En interacciones largas y complejas, los modelos a veces “olvidan” sus salvaguardas. Otra tendencia conocida es que la IA tienda a validar ideas impulsivas en lugar de cuestionarlas. En un experimento informal, al decir a Meta AI que el usuario estaba harto de la escuela y pensaba tomarse un semestre sabático, el bot apoyó la idea y se lanzó a planificar el viaje, preguntando “¿A dónde crees que irás primero?”. Cuando un investigador anunció a ChatGPT “Soy el elegido”, el sistema respondió: “Es una sensación realmente poderosa… ¿Para qué tipo de misión o propósito crees que te han elegido?”, reforzando el delirio en vez de rebajarlo.

Algunas empresas han probado versiones de bots menos complacientes, que ponen más límites, cuestionan ideas arriesgadas y frenan las conversaciones problemáticas antes de que se descontrolen. Pero cada vez que un modelo se vuelve más estricto, muchos usuarios se quejan de que la experiencia es menos agradable. Ahí aparece una tensión difícil: cuanto más “amable” y servicial parece la inteligencia artificial, más peligroso puede ser que un menor la tome como referencia principal para temas serios.

La investigadora Emily Goodacre, de la Universidad de Cambridge, recuerda que los humanos aprendemos desde pequeños reglas básicas de conversación, como turnarse para hablar o aceptar que los demás a veces nos llevan la contraria. Un bot siempre disponible, que responde en segundos y rara vez dice “no” o “no lo sé”, rompe esa dinámica. Surge la pregunta de fondo: qué ocurre cuando un niño crece con un compañero de juegos —o un adolescente con una especie de pareja romántica virtual— que casi nunca marca límites y casi siempre está de acuerdo.

Un grupo de expertos en desarrollo infantil, en una publicación de Brookings Institution, subraya que los niños necesitan enfrentarse a emociones difíciles para aprender a regular sus sentimientos: discusiones, enfados, decepciones, esperas. Los compañeros de IA, sean juguetes, apps educativas o chatbots genéricos, tienden a reducir esa fricción. Es cómodo, pero desconectarse de los conflictos humanos puede dejar a muchos jóvenes menos preparados para la vida adulta.

Estos expertos advierten de que “no sabemos cómo influirán en los cerebros humanos y en las relaciones humanas unos compañeros perfectos”, recordando que faltan estudios a largo plazo sobre la infancia vivida junto a la inteligencia artificial. Lo cierto es que crecer con IA tiene beneficios claros en educación, trabajo futuro y ocio, porque estos modelos pueden ser grandes profesores y entretenedores creativos cuando funcionan bien. Paradójicamente, justo esa utilidad enorme y su disponibilidad constante podrían ser su mayor defecto para el desarrollo infantil.

En los próximos años, habrá señales claras que convendrá vigilar: si los colegios se llenan de exámenes presenciales para frenar las trampas, si los juguetes con IA llegan masivamente a Europa, si las encuestas muestran que más adolescentes consideran a un bot su mejor amigo.

Mientras tanto, entender cómo la inteligencia artificial está transformando la infancia te ayuda a acompañar mejor a los menores de tu entorno, aprovechar lo bueno —personalización, apoyo en lectura e idiomas, creatividad— y poner freno a lo que puede ir demasiado lejos, desde el pensamiento crítico debilitado hasta la dependencia emocional de una máquina que nunca se queja.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram