microsoftAgentes IARamón López de MántarasGeneración ZAmazonIA / Inteligencia ArtificialDamasioagentes de IAUrban VPN ProxyChatGPTMetaSora 2ClaudiusAnthropicwhatsapp

Ramón López de Mántaras Rompe el Hechizo de la IA: Lenguaje Brillante, Cero Experiencia Consciente

 | diciembre 27, 2025 19:56

¿Alguna vez te pasó que alguien habla con tanta seguridad que parece entenderlo todo, pero al hacer una pregunta concreta se desarma? Con herramientas como ChatGPT, esa sensación se volvió cotidiana. Y ahí aparece una duda incómoda: ¿estamos escuchando comprensión o solo un buen manejo de palabras?

Sin embargo, el investigador Ramón López de Mántaras, una de las voces más reconocidas de la inteligencia artificial en España, pone un freno claro a ese entusiasmo. En su texto publicado en La Máquina de Von Neumann, el hallazgo conceptual es directo: los grandes modelos de lenguaje no razonan ni comprenden; procesan información.

Un Modelo de Lenguaje AI Integrado en un Robot Aspirador, Imitó el Comportamiento Humano

Es decir, para López de Mántaras la clave está en no confundir habilidades lingüísticas avanzadas con experiencia consciente. El mecanismo que engaña es simple: si el sistema responde “como si” entendiera, el cerebro humano completa el resto y le atribuye propiedades humanas que no están ahí.

“No existe ni de lejos evidencia suficiente” para sostener que estos modelos tengan consciencia, señala. No obstante, advierte que uno de los errores más habituales es invertir la carga de la prueba: en ciencia, quien afirma que hay consciencia debe demostrarlo. No al revés.

En otras palabras, un chatbot puede sonar convincente y aun así no “saber” nada de lo que dice. Y esa diferencia importa, porque cambia cómo se decide, qué se automatiza y qué riesgos se toleran.

Por su parte, López de Mántaras subraya que el comportamiento externo no alcanza para declarar consciencia. Los humanos no solo actuamos como si fuéramos conscientes: compartimos un sustrato biológico común, un sistema nervioso. No obstante, los modelos de lenguaje no se parecen en nada al tejido nervioso de los seres vivos, y comparar ambos sistemas le resulta profundamente engañoso.

Sin embargo, la confusión se alimenta de una metáfora peligrosa: creer que “hablar bien” es un interruptor de consciencia. Para el investigador, ese interruptor no existe hoy en la máquina. Existe, como mucho, un cableado estadístico que conecta palabras con palabras.

Es decir, un LLM (modelo grande de lenguaje) funciona como una central de despacho que predice qué frase sigue, según patrones aprendidos de millones de textos. Puede coordinar engranajes lingüísticos con una fluidez llamativa. Pero eso no es comprensión: es un mecanismo de predicción.

No obstante, la analogía doméstica más útil es pensar en un tablero eléctrico. Un tablero puede encender luces en la casa con precisión, sin “sentir” la luz ni “entender” la noche. El lenguaje, en estos sistemas, es el cableado; la consciencia no viene incluida en la instalación.

Por su parte, el autor baja la discusión a ejemplos concretos. Un robot puede evitar obstáculos, optimizar trayectorias o minimizar un “contador de dolor” sin sentir dolor. Es decir, puede seguir una señal numérica y ajustar su conducta. Pero no hay experiencia subjetiva detrás de ese número.

No obstante, ocurre algo similar con un smartphone. Puede “saber” cuánta batería le queda, pero eso no implica hambre, sensaciones ni autoconciencia. Dispone de información; no vive esa información.

¿Simular una mente es tener una mente?

Sin embargo, López de Mántaras insiste en separar simulación y realidad. Simular una mente no es lo mismo que tener una mente real. Su imagen es brutalmente clara: una vaca virtual no puede producir leche real. La simulación de la consciencia no genera experiencia consciente.

En otras palabras, confundir una simulación computacional con la vida mental es “confundir el mapa con el territorio”. El mapa puede ser detallado, útil y hasta bello. Pero no es el lugar.

Aplicaciones prácticas: prudencia sin miedo

Por su parte, esta mirada no busca demonizar la IA. La oportunidad es otra: usarla mejor. Si se entiende que el sistema no comprende, se lo puede tratar como lo que es: una herramienta potente para redactar, resumir o asistir, pero no un árbitro moral ni un testigo de la realidad.

No obstante, también cambia el debate ético. López de Mántaras defiende tratar bien a las máquinas, pero rechaza paralelismos morales con seres capaces de sufrir. Y remarca, con ironía, que borrar un modelo de lenguaje no se parece en absoluto a dañar a un ser vivo.

Sin embargo, la pieza clave para el usuario común es sencilla: cuando una IA hable impecable, conviene hacer la pregunta extra, la de “¿por qué?” y “¿con qué evidencia?”. Porque hoy, en esta central de cables y engranajes, la fluidez no es sinónimo de entendimiento.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram