¿Te pasó de aprender una receta de memoria y, cuando faltó un ingrediente, quedarte en blanco? A veces el problema no es “saber mucho”, sino saber aprender cuando cambia el escenario. Ese es el giro que hoy está moviendo la conversación sobre la inteligencia artificial.
En el debate por la Inteligencia Artificial General (AGI), la idea de una máquina capaz de igualar a los humanos en la mayoría de tareas cognitivas, el nuevo foco ya no está en cuánto conocimiento acumula un sistema. La pieza clave ahora es cómo se adapta cuando enfrenta algo nuevo, sin instrucciones largas ni miles de ejemplos.

Ese hallazgo práctico lo empuja con fuerza François Chollet, creador del benchmark ARC-AGI, un test pensado para medir generalización, es decir, la capacidad de encontrar reglas nuevas con muy poca información. Según su tesis, la inteligencia no se reduce a almacenar datos: se parece más a un mecanismo para aprender habilidades con facilidad.
“La inteligencia no puede reducirse a la acumulación masiva de datos”, sostiene Chollet. Para él, la clave es recombinar lo que ya se sabe “sobre la marcha”.
Durante años, los hitos de la IA se contaron como trofeos: ganar al ajedrez, reconocer imágenes, responder preguntas complejas. Y también el Test de Turing funcionó como referencia cultural: si una máquina conversa como un humano, parecía “inteligente”.
Sin embargo, los modelos de lenguaje actuales pueden mantener diálogos muy convincentes y, Fallar en tareas básicas de abstracción. Y esos fallos no son un tropiezo aislado. Revelan una limitación estructural: imitar el lenguaje no implica comprenderlo.
La analogía doméstica ayuda a verlo. Muchos sistemas actuales se parecen a una despensa gigantesca: cuanto más llena está, más recetas pueden “recitar”. En IA eso se llama escala (más datos, más parámetros, más computación). Funciona muy bien para escribir, programar o responder con fluidez.
ARC-AGI, en cambio, te saca esa despensa. Es como pedirte cocinar con dos ingredientes y una pista mínima, pero esperando el mismo plato. El test propone problemas visuales con muy pocos ejemplos, y obliga al sistema a deducir una regla nueva en el momento.
Ahí aparece el “interruptor” que separa memoria de aprendizaje. Cuando hay miles de casos parecidos en el entrenamiento, el modelo puede apoyarse en patrones estadísticos. Pero ARC-AGI introduce fricción deliberada: restringe la información para que el engranaje central sea la generalización, no la repetición.
En términos simples: la máquina no puede “hablar bien” para salir del paso. Tiene que entender la regla del rompecabezas.
Los humanos suelen resolver entre el 60% y el 88% de los ejercicios de ARC-AGI. En ese mismo tipo de tareas, las mejores IA generales actuales rinden de forma sensiblemente inferior. El dato no busca humillar a la tecnología. Busca señalar dónde está el borde real de su capacidad.

Esto no niega los logros de laboratorios como OpenAI, Anthropic o Google DeepMind. Sus modelos muestran rendimiento sobresaliente en lenguaje, ciencia y programación. Pero el mecanismo que los impulsa sigue dependiendo, en gran medida, de crecer en tamaño y entrenamiento.
Y ahí está la oportunidad incómoda que ARC-AGI pone sobre la mesa: si el progreso depende solo de agregar más “cableado” y más energía, el salto hacia una AGI puede no llegar por acumulación, sino por un cambio de arquitectura mental.
Además, este cambio de criterio toca la vida cotidiana. Si una IA no generaliza bien, puede sonar segura y aun así equivocarse cuando la situación se sale del guion: una indicación médica con un detalle raro, una regla nueva en una escuela, una excepción en un trámite.
En esa línea, Geoffrey Hinton, Nobel de Física en 2024 y figura central del aprendizaje profundo, advierte que estos sistemas no replican la mente humana. Para él, “estamos construyendo seres ajenos a nosotros”, una frase que subraya la distancia entre conversar y comprender.
La nueva era de la IA, entonces, no se decide solo por cuánto “sabe” una máquina, sino por si puede aprender cuando le falta el ingrediente clave. Como en la cocina, el futuro se juega menos en la despensa y más en la creatividad para resolver con lo que hay.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.