¿Cómo puede una inteligencia artificial escribir el plano completo de un videojuego en minutos y, al mismo tiempo, perderse apenas agarra el control? La escena suena extraña, casi doméstica: alguien arma un mueble perfecto, pero no sabe abrir el cajón.

Ese es el hallazgo que viene siguiendo Julian Togelius, director del Game Innovation Lab de la Universidad de Nueva York. En entrevistas y trabajos recientes, el investigador revela una paradoja central de la IA actual: modelos como Cursor, Claude o Gemini pueden crear clones funcionales de clásicos como Asteroids, pero luego fracasan al intentar jugarlos sin ayuda.

La pieza clave no está en que los videojuegos sean “más difíciles” en abstracto. Según Togelius, el mecanismo es otro: programar tiene reglas claras, objetivos definidos y una respuesta inmediata cuando algo falla. Jugar, en cambio, obliga a descubrir un cableado nuevo cada vez.

Togelius es categórico al describir las pruebas sin asistencia: el resultado suele ser un “fracaso absoluto”.

También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el Aprendizaje

La analogía más útil es la de una casa. Programar se parece a revisar el tablero eléctrico con etiquetas en cada interruptor. Si se corta la luz de la cocina, el problema está localizado. Hay un error, una pista y una forma rápida de corregirlo.

En cambio, jugar un videojuego se parece a entrar en una casa desconocida, a oscuras, donde cada habitación cambió de lugar y cada interruptor hace algo distinto. Uno abre una puerta y aparece una escalera. En otra pared, una llave enciende el ventilador pero también traba una ventana. No hay una lógica universal.

Ahí aparece la gran diferencia. Los modelos de lenguaje, entrenados con enormes cantidades de código, aprendieron muy bien tareas estructuradas. El feedback (respuesta del sistema) en programación es inmediato: compila o no compila, funciona o se rompe. Ese engranaje encaja con su entrenamiento.

Los videojuegos operan con otra mecánica. Tienen reglas arbitrarias, recompensas a veces retrasadas y exigen razonamiento espacial, la capacidad de ubicarse y anticipar movimientos en un entorno, una habilidad poco representada en los datos con los que se entrenan estos sistemas.

También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el Aprendizaje
También te puede interesar:Ingenieros Fantasma en Silicon Valley: Así Ganan 250.000 Dólares Trabajando para Dos Empresas

La trampa de los juegos “fáciles” para la IA

Por eso una IA puede destacarse al generar el código de un juego y fallar al jugarlo. Incluso cuando hay logros llamativos, el cuadro general sigue siendo limitado. Gemini 2.5 Pro, por ejemplo, logró completar Pokémon Azul en mayo de 2025, pero lo hizo más lento que un humano, repitió errores y dependió de herramientas externas, como guías y APIs.

Además, no todos los éxitos valen lo mismo. Títulos como Pokémon o Minecraft tienen abundante documentación, walkthroughs y estrategias públicas. Esa información funciona como un andamio. Sin ese soporte, la IA pierde una referencia central.

La fuente de esta limitación fue detallada también en la entrevista de IEEE Spectrum con Togelius y en su artículo académico. Allí subraya que Halo y Space Invaders pueden ser más diferentes entre sí que dos ensayos académicos. Cada juego trae su propio mundo, su propia lógica y su propio sistema de premios y castigos.

En el mundo real pasa lo contrario. Conducir un coche autónomo parece más complejo, pero el asfalto, los semáforos y la física del vehículo mantienen reglas bastante estables. Esa homogeneidad le da a la IA una oportunidad de transferir aprendizaje de un entorno a otro. Aprender un videojuego, en cambio, no abre automáticamente la puerta al siguiente.

Una vara más exigente para medir inteligencia

Por eso Togelius propone usar los videojuegos como una prueba más honesta del progreso real de la IA. El estándar sería claro: que un sistema pueda aprender a completar cualquier juego popular en un tiempo similar al de una persona, sin ayudas externas.

Hoy no existe ninguna IA que se acerque a ese nivel generalizado. Y ese dato revela algo incómodo pero útil: todavía hay una distancia importante entre resolver tareas muy bien cableadas y entender entornos nuevos con autonomía real.

La escena, entonces, deja de ser contradictoria. La IA actual sabe construir muchas puertas, pero todavía no entiende del todo cómo cruzarlas. Y ahí, justamente, puede estar el próximo gran interruptor de esta tecnología.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios