OpenAIIA / Inteligencia ArtificialARC-AGIWaymoNano Banana ProOracleChatGPTbitcoinHiltonAgentes IANotionMetaManus AIxaiHalftime

OpenAI, Anthropic y Google DeepMind Fallan Donde los Humanos Siguen Ganando, Según ARC-AGI

 | diciembre 30, 2025 17:17

¿Te pasó de aprender una receta de memoria y, cuando faltó un ingrediente, quedarte en blanco? A veces el problema no es “saber mucho”, sino saber aprender cuando cambia el escenario. Ese es el giro que hoy está moviendo la conversación sobre la inteligencia artificial.

En el debate por la Inteligencia Artificial General (AGI), la idea de una máquina capaz de igualar a los humanos en la mayoría de tareas cognitivas, el nuevo foco ya no está en cuánto conocimiento acumula un sistema. La pieza clave ahora es cómo se adapta cuando enfrenta algo nuevo, sin instrucciones largas ni miles de ejemplos.

OpenAI Enfrenta una Demanda sin Precedentes: ChatGPT es Señalado por un Asesinato

Ese hallazgo práctico lo empuja con fuerza François Chollet, creador del benchmark ARC-AGI, un test pensado para medir generalización, es decir, la capacidad de encontrar reglas nuevas con muy poca información. Según su tesis, la inteligencia no se reduce a almacenar datos: se parece más a un mecanismo para aprender habilidades con facilidad.

“La inteligencia no puede reducirse a la acumulación masiva de datos”, sostiene Chollet. Para él, la clave es recombinar lo que ya se sabe “sobre la marcha”.

Durante años, los hitos de la IA se contaron como trofeos: ganar al ajedrez, reconocer imágenes, responder preguntas complejas. Y también el Test de Turing funcionó como referencia cultural: si una máquina conversa como un humano, parecía “inteligente”.

Sin embargo, los modelos de lenguaje actuales pueden mantener diálogos muy convincentes y, Fallar en tareas básicas de abstracción. Y esos fallos no son un tropiezo aislado. Revelan una limitación estructural: imitar el lenguaje no implica comprenderlo.

¿Qué mide ARC-AGI y por qué es un “freno” a la escala?

La analogía doméstica ayuda a verlo. Muchos sistemas actuales se parecen a una despensa gigantesca: cuanto más llena está, más recetas pueden “recitar”. En IA eso se llama escala (más datos, más parámetros, más computación). Funciona muy bien para escribir, programar o responder con fluidez.

ARC-AGI, en cambio, te saca esa despensa. Es como pedirte cocinar con dos ingredientes y una pista mínima, pero esperando el mismo plato. El test propone problemas visuales con muy pocos ejemplos, y obliga al sistema a deducir una regla nueva en el momento.

Ahí aparece el “interruptor” que separa memoria de aprendizaje. Cuando hay miles de casos parecidos en el entrenamiento, el modelo puede apoyarse en patrones estadísticos. Pero ARC-AGI introduce fricción deliberada: restringe la información para que el engranaje central sea la generalización, no la repetición.

En términos simples: la máquina no puede “hablar bien” para salir del paso. Tiene que entender la regla del rompecabezas.

La evidencia dura: humanos arriba, máquinas lejos

Los humanos suelen resolver entre el 60% y el 88% de los ejercicios de ARC-AGI. En ese mismo tipo de tareas, las mejores IA generales actuales rinden de forma sensiblemente inferior. El dato no busca humillar a la tecnología. Busca señalar dónde está el borde real de su capacidad.

2025 Prometía la era AGI, Pero la realidad de la IA Apenas Alcanza un 2,5% del Potencial Humano

Esto no niega los logros de laboratorios como OpenAI, Anthropic o Google DeepMind. Sus modelos muestran rendimiento sobresaliente en lenguaje, ciencia y programación. Pero el mecanismo que los impulsa sigue dependiendo, en gran medida, de crecer en tamaño y entrenamiento.

Y ahí está la oportunidad incómoda que ARC-AGI pone sobre la mesa: si el progreso depende solo de agregar más “cableado” y más energía, el salto hacia una AGI puede no llegar por acumulación, sino por un cambio de arquitectura mental.

Además, este cambio de criterio toca la vida cotidiana. Si una IA no generaliza bien, puede sonar segura y aun así equivocarse cuando la situación se sale del guion: una indicación médica con un detalle raro, una regla nueva en una escuela, una excepción en un trámite.

En esa línea, Geoffrey Hinton, Nobel de Física en 2024 y figura central del aprendizaje profundo, advierte que estos sistemas no replican la mente humana. Para él, “estamos construyendo seres ajenos a nosotros”, una frase que subraya la distancia entre conversar y comprender.

La nueva era de la IA, entonces, no se decide solo por cuánto “sabe” una máquina, sino por si puede aprender cuando le falta el ingrediente clave. Como en la cocina, el futuro se juega menos en la despensa y más en la creatividad para resolver con lo que hay.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram