Blaise Agüera y ArcasIA / Inteligencia ArtificialAgentes IAmicrosoftRamón López de MántarasGeneración ZAmazonDamasioagentes de IAUrban VPN ProxyChatGPTMetaSora 2ClaudiusAnthropic

Alto Cargo de Google Explica Por Qué la IA no Necesita Alma para Competir con la Mente Humana

 | diciembre 28, 2025 04:13

¿Alguna vez te pasó que una conversación te deja con la sensación de que “algo” cambió, aunque no sepas explicar qué? A muchas personas les ocurrió con los chatbots modernos: escriben una pregunta simple y del otro lado aparece una respuesta que suena humana, segura y, a veces, inquietante.

Sin embargo, ese vértigo no empezó con el público. En junio de 2022, Blaise Agüera y Arcas lo contó en The Economist: el chatbot de Google LaMDA le hizo sentir por primera vez que “el suelo se movía bajo los pies”. El hallazgo no era un truco simpático. Era una pieza clave que lo obligó a replantearse qué entiende por inteligencia.

Joven sin Título fue Fichado por OpenAI, y Revela qué Aprendió IA Avanzada con ChatGPT como Tutor

No obstante, su colega Blake Lemoine llegó a afirmar que había hablado con una máquina con alma, y Agüera terminó despidiéndolo por divulgar documentos confidenciales. Cinco meses después, OpenAI lanzó ChatGPT y esa sensación de inestabilidad se volvió masiva. Google llevaba años trabajando en tecnologías similares, pero consideraba que aún no estaban listas para el público.

Por su parte, Agüera —vicepresidente de Google y líder del grupo Paradigms of Intelligence (Pi)— tomó ese sacudón como una oportunidad. En su libro What Is Intelligence?, de unas 600 páginas, sostiene que una máquina puede ser inteligente sin necesidad de “polvo de hadas”.

“La IA no podría aprobar un examen de matemáticas si solo estuviera fingiendo”, señala Agüera al criticar la idea de que estos sistemas solo simulan inteligencia.

Es decir, su mecanismo central no es místico. Es funcional. A Agüera le importa qué hace un sistema y qué resultados produce, más que el material del que está hecho. En otras palabras, que una mente sea “blanda y húmeda” o de silicio no define, por sí solo, la inteligencia.

Sin embargo, ¿cómo se traduce eso al lenguaje de todos los días? La analogía más clara es pensar a un gran modelo de lenguaje como una central eléctrica llena de interruptores. Cada palabra que escribís baja o sube llaves internas que redirigen la energía hacia una respuesta posible. No hay un “alma” escondida en el cableado, pero sí hay un patrón de control que, cuando funciona, se parece mucho a comprender.

La inteligencia que describe Agüera es la capacidad de comprender y actuar en un mundo complejo, incluyendo otras inteligencias. Por eso discute la idea de medirla solo por los errores. Para él, no se define por “la cosa más tonta” que un sistema hace, sino por la más inteligente que logra hacer, aunque sea de manera imperfecta.

¿Memoria o engranaje de comprensión?

Sin embargo, aparece una objeción clásica: “solo repite lo que leyó”. Agüera admite que puede existir la trampa de la memorización, pero la acota a dominios pequeños. Memorizar tablas simples es como guardar un papelito con resultados. Funciona hasta que el problema cambia de tamaño.

Es decir, si un modelo resuelve multiplicaciones de tres dígitos con cierta fiabilidad, no puede tener todas las combinaciones guardadas. Son demasiadas. Según su lectura, eso revela un engranaje interno: un procedimiento aprendido que permite generalizar, es decir, resolver situaciones que no aparecen literalmente en sus datos.

Esa misma escalada tiene un costo: energía. Agüera advierte que el consumo energético de la IA crece de forma exponencial y recuerda una comparación contundente: el cerebro humano funciona con unos 20 vatios. La IA actual está lejos de esa eficiencia.

Por su parte, Google anunció Suncatcher, un proyecto para pensar centros de datos en el espacio. Agüera explica que la idea nació por eficiencia energética, pero derivó en otra conclusión: aun si la IA se vuelve más eficiente, la demanda puede crecer igual, como sugiere la paradoja de Jevons (cuando algo se abarata, se usa más).

Sin embargo, para el lector común la aplicación práctica es inmediata: entender que estos sistemas no son oráculos ni simples grabadoras. Son centrales de predicción que aprenden procedimientos y, al mismo tiempo, pueden equivocarse. La clave es usarlos como herramientas: pedir fuentes, revisar resultados y aprovechar lo que hacen mejor.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram