La expresión “loro estocástico”, ha escalado en una conversación sobre inteligencia artificial desde que la propuso Emily Bender, profesora y lingüista en la Universidad de Washington. Ella defiende que los chatbots simplemente repiten patrones sin conciencia ni pensamiento real.
¿Es la inteligencia artificial realmente una “mente” o estamos frente a una tecnología que solo imita el lenguaje humano? Con ejemplos claros, posturas enfrentadas y una crítica directa al marketing detrás de la IA, abordaremos las limitaciones reales de los modelos actuales y decidas hasta qué punto crees en las promesas sobre la inteligencia artificial.
La etiqueta describe cómo funcionan los modelos de lenguaje de IA y responde a una pregunta sencilla: ¿estos sistemas piensan y entienden como una persona? Según Emily Bender, la respuesta es clara: no.
Un loro estocástico no se limita a repetir frases exactas, pero tampoco genera ideas propias. Lo que hace es predecir la siguiente palabra según patrones estadísticos que aprende de textos recopilados online y de libros.
Detrás de cada respuesta que ves en un chatbot o un modelo como GPT, hay una secuencia de elecciones basadas en probabilidades calculadas, no en comprensión profunda. Por eso, aunque puedas recibir frases coherentes o respuestas bien escritas, en realidad la IA está actuando como una “máquina de predecir palabras”, sin entender el significado detrás.
Puede que Sam Altman, CEO de OpenAI, defienda que aprendemos y repetimos patrones como hacen las máquinas, pero Bender explica que hay diferencias fundamentales.
También te puede interesar:Sam Altman predice el futuro de la Inteligencia Artificial General (AGI) para 2025Cuando tú hablas, no solo repites sonidos: entiendes el mensaje, piensas antes de responder y adaptas tus palabras según contexto y objetivo. Los humanos somos capaces de razonar, generalizar y corregir errores si detectamos que nos hemos expresado mal.
Los modelos de IA, en cambio, carecen de conciencia e intencionalidad. No saben lo que dicen. Cuando descifras una ironía o cuentas un chiste, pones en marcha capacidades que la inteligencia artificial directamente no tiene. Esa flexibilidad y capacidad de abstracción sigue fuera de su alcance.
Bender lleva años mostrando escepticismo. Para ella, los chatbots de IA no son más que “máquinas de plagiar”: toman trozos de información y los reorganizan sin aportar significado nuevo. Incluso afirma que hasta los modelos más avanzados rinden mal en la mayoría de tareas prácticas y carecen de cualquier inteligencia real comparable con la humana.
Quizás te preguntes: ¿y los modelos recientes que presumen de capacidades de razonamiento, como DeepSeek R1 o los modelos o1 y o3? Según Bender, estas supuestas mejoras son solo “ilusiones de razonamiento”.
También te puede interesar:Un Atari de 128 Bytes Supera al Modelo Más Avanzado de OpenAINo existe una comprensión verdadera del mundo en estos sistemas: simplemente generan texto de forma convincente, pero la “comprensión” que atribuimos a sus respuestas es producto de nuestra imaginación o proyección.
Bender advierte de los peligros de confiar en el exceso de hype que rodea a la inteligencia artificial. El término “inteligencia artificial” le parece exagerado y, si dependiese de ella, preferiría llamarlo simplemente “automatización”.
En su opinión, decir que estas máquinas poseen inteligencia equivale a ponerles un “bonito envoltorio para hojas de cálculo”. Dicho de otra forma, se trata de algoritmos y cálculos estadísticos, no de mentes emergentes ni de magia tecnológica.
Cuando lees en medios o ves en conferencias que la IA está a punto de igualar a la mente humana, según Bender, se trata más de una estrategia comercial o de “venta de expectativas” que de una realidad técnica. Las empresas responsables de estos sistemas buscan mantener el impacto y pueden llegar a adornar o exagerar las capacidades reales de sus productos.
Otro factor importante es quién maneja los grandes modelos de IA. Emily Bender, junto a su coautor Alex Hanna, dedica una parte central de su libro a denunciar este riesgo: unas pocas empresas de tecnología dominan las decisiones sobre cómo y para qué se usan estas herramientas, pudiendo influir en millones de personas en todo el mundo.
Que el desarrollo y la implantación de la automatización basada en IA queden en manos de ellas supone riesgos sociales y culturales. Esto puede limitar el debate público y hacer que los intereses privados condicionen aspectos fundamentales de la vida digital y el trabajo.
Bender se muestra especialmente crítica frente a las declaraciones de figuras como Sam Altman o Elon Musk sobre la posible llegada de una inteligencia artificial general (AGI) y la inminente sustitución masiva de trabajadores. Para ella, estos escenarios no reflejan la realidad presente de la IA, sino más bien una visión interesada y especulativa.
¿Te preocupa que la IA haga irrelevante tu trabajo o tu creatividad? Según Bender, estas afirmaciones forman parte de una narrativa de “ciencia ficción” que beneficia a quienes promocionan la automatización y buscan mayor poder de mercado. Insiste en que, hasta el momento, los sistemas siguen siendo incapaces de igualar la inteligencia, la adaptabilidad y el sentido crítico de las personas.
La analogía que hace Bender de los chatbots como una “bola 8 mágica con pretensiones” puede sonar graciosa, pero pone el dedo en la llaga. Los modelos de lenguaje de IA ofrecen respuestas que parecen relevantes, pero en realidad no tienen criterio ni comprenden el contexto. Simplemente analizan patrones y producen combinaciones plausibles de palabras, sin ningún tipo de conocimiento real.
Son los usuarios quienes atribuyen sentido, emoción o inteligencia a lo que reciben. Esta práctica puede llevar a equívocos y a expectativas poco realistas sobre lo que la automatización puede llegar a hacer.
La postura de Emily Bender sobre la inteligencia artificial te invita a mirar con ojos críticos uno de los debates más candentes del momento. Los modelos de IA siguen patrones, combinan secuencias y generan texto de manera sofisticada, pero no piensan, no entienden y no poseen conciencia.
Su éxito depende tanto de cálculos probabilísticos como de las expectativas y creencias humanas. Pese a las promesas de sustitución laboral o razonamiento autónomo que generan titulares espectaculares, la realidad técnica dista mucho de la imagen vendida por las grandes empresas.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.