Agentes IAKrafton2WaiHugging FaceGTA VIAlphabet (Google)Nano Banana ProAsk GeminiChatGPTAI StudioGPT-5.1-Codex-MAXOpenAILarry SummersPrime VideoIA / Inteligencia Artificial

Para el CEO de Hugging Face, la Burbuja Real no Está en la IA, Sino en los LLM

 | noviembre 20, 2025 23:42

Cuando todo el mundo mira a ChatGPT, Gemini y compañía como si fueran el futuro entero de la inteligencia artificial, Clem Delangue, CEO de Hugging Face, lanza un aviso incómodo: lo que podría estar inflándose no es la IA en general, sino una “burbuja de LLM”. Y, si tiene razón, el pinchazo podría llegar muy pronto.

Delangue, que dirige Hugging Face desde Estados Unidos y lleva 15 años metido en inteligencia artificial, sitúa el problema en el foco actual: modelos de lenguaje grandes entrenados con cifras de cómputo astronómicas, con la promesa de servir para todo y para todos. Para él, esa promesa tiene trampa y, No significa que la IA vaya a detenerse si falla.

Hugging Face, lanza un aviso incómodo

Para él, no estamos en una burbuja de inteligencia artificial, sino en una burbuja de LLM que, según su pronóstico, podría estallar el año que viene. Repite que esto no pone en riesgo el futuro del campo, porque los modelos de lenguaje grandes representan solo una parte de lo que ya está pasando en IA.

Te afecta aunque no programes ni un solo modelo: si esa burbuja de modelos de lenguaje grandes explota, puede cambiar qué tipo de herramientas de inteligencia artificial vas a poder usar en tu banco, en tu médico o en tu trabajo diario. El “cómo” y el “cuándo” son los detalles que Delangue intenta aclarar.

Su primer punto es que la atención mediática y el dinero se han concentrado en un único tipo de sistema, esos LLM que impulsan chatbots generalistas como ChatGPT o Gemini. En su opinión, están recibiendo una atención desproporcionada, casi hipnótica, que deja en la sombra otras ramas igual o más importantes de la inteligencia artificial.

Subraya que la IA actual toca biología, química, imagen, audio y vídeo, y que en muchas de esas áreas todo está todavía en una fase muy temprana. La conversación gira casi siempre alrededor de modelos de lenguaje grandes, como si fueran los únicos que importan. Para él, ahí empieza el riesgo de burbuja.

También te puede interesar:Hugging Face Buscan Crear una Versión Open Source de la Herramienta de Investigación de OpenAI

La trampa, según Delangue, está en la visión de “un solo modelo gigante para todo”: un sistema único, entrenado con cantidades absurdas de datos y recursos computacionales, que sirva por igual para empresas, gobiernos y usuarios particulares. Esa visión vende bien, pero él la considera irreal tanto en lo técnico como en lo económico.

En sus palabras, hoy casi todo el foco, el dinero y la presión del mercado se concentran justo en esa idea de un gran modelo de lenguaje capaz de resolver cualquier problema que le plantes. “Se está apostando a que un solo modelo gigante sirva para todos los casos, y eso no es cómo funciona la inteligencia artificial”, viene a decir.

A partir de ahí abre otra puerta: si esa apuesta falla y esa burbuja de LLM se desinfla, lo que va a crecer es justo lo contrario. Delangue predice que en los próximos meses y años veremos una multiplicidad de modelos pequeños, personalizados y especializados, pensados para tareas muy concretas y no para responderlo todo.

Para que no suene teórico, baja al terreno de un ejemplo muy cotidiano: el chatbot de atención al cliente de un banco. Si escribes a tu banco, esperas que te ayude con tu tarjeta, tu hipoteca o una transferencia concreta, no que se lance a hablar sobre el sentido de la vida ni a escribir poesía.

En ese escenario bancario, argumenta que un modelo de lenguaje grande y generalista es más un lujo que una necesidad. Lo que el banco necesita es un sistema entrenado con sus productos, sus normas y sus procesos, que responda rápido y bien dentro de ese marco limitado, sin tanto despliegue “creativo”.

Ahí es donde entra su visión de futuro de la inteligencia artificial: vas a poder tener modelos más pequeños, especializados en un sector o incluso en una sola empresa, que sean más rápidos, más baratos y más fáciles de controlar. Y, detalle clave, que se ejecuten dentro de la propia infraestructura de la compañía.

También te puede interesar:Hugging Face ofrece dos robots humanoides desde solo 250 euros y con IA de código abierto

Esa capacidad de correr un modelo en los propios servidores del banco, del hospital o de una pyme es algo que Delangue destaca como ventaja directa. Aporta más control sobre los datos, menos dependencia de proveedores externos de modelos de lenguaje grandes y, sobre todo, menos coste operativo para la empresa.

Por qué una posible burbuja de LLM no significa el fin de la inteligencia artificial

Aunque habla sin rodeos de “burbuja de LLM” y se atreve a ponerle fecha de posible estallido al próximo año, Delangue insiste en que eso no sería un drama para la inteligencia artificial como campo. Lo ve más como un reajuste necesario dentro de una industria que ya es muy diversa por debajo del ruido mediático.

Según su lectura, una parte del sector, la que gira alrededor de grandes modelos de lenguaje, está sobrevalorada en expectativas y en dinero. La IA abarca ya tantas áreas distintas que un golpe ahí no tendría un impacto masivo sobre el conjunto del campo ni sobre todas las empresas que trabajan con modelos más discretos.

Él mismo reconoce que Hugging Face, como plataforma muy ligada al boom de los modelos de lenguaje grandes, podría notar el golpe si la burbuja se desinfla. Matiza que la empresa lleva tiempo preparándose para una industria donde los modelos especializados y pequeños ganan protagonismo frente al “modelo gigante para todo”.

Hugging Face, recuerda, no vive solo de un tipo de arquitectura; aloja y soporta modelos de visión, audio, biología computacional y muchas otras variantes de inteligencia artificial. Esto hace que, si el mercado gira hacia soluciones más ajustadas, la plataforma pueda acompañar ese giro en lugar de quedarse bloqueada.

La parte financiera encaja con ese discurso de prudencia. Delangue indica que Hugging Face conserva todavía aproximadamente la mitad de los 400 millones de dólares que ha recaudado hasta la fecha. No es un detalle menor cuando se compara con lo que están haciendo otras compañías centradas en LLM.

llm-d en Google Cloud

Según explica, muchas de esas empresas de modelos de lenguaje grandes están gastando no cientos de millones, sino miles de millones de dólares, sobre todo en infraestructura: centros de datos, chips de alto rendimiento y energía para entrenar y servir esos sistemas gigantescos. Ahí es donde ve el riesgo más directo de la burbuja.

En contraste, presenta a Hugging Face como una compañía que intenta usar el capital de forma más eficiente en plena fiebre por la inteligencia artificial. Afirma que, con los estándares actuales del sector, su posición financiera “equivale casi a ser rentables”, precisamente porque el gasto de varios rivales es muy superior y más agresivo.

Cómo podría cambiar el mercado de IA si explota la burbuja de modelos de lenguaje grandes

Si la predicción de Delangue se cumple y la burbuja de LLM estalla en el corto plazo, el movimiento que él espera no es un frenazo general, sino un giro del foco. Veríamos más proyectos de inteligencia artificial centrados en problemas específicos, con modelos más pequeños y entrenados para contextos concretos.

Eso incluiría asistentes médicos focalizados en una especialidad concreta, sistemas de recomendación afinados a un sector muy concreto del comercio electrónico o modelos industriales pensados solo para una planta de producción determinada. Todos ellos compartirían algo: no necesitan la escala ni el coste de un gran modelo de lenguaje general.

También anticipa una mayor adopción de modelos que las empresas puedan ejecutar en su propia infraestructura, sin depender todo el rato de un servicio web externo controlado por otra compañía. Esto encaja con preocupaciones sobre privacidad, cumplimiento normativo y estabilidad de precios en servicios de inteligencia artificial.

Para apoyar su visión, Delangue recuerda que ha vivido ya varios ciclos en tecnología y en IA durante los últimos 15 años. En todos ha visto una fase de entusiasmo exagerado, seguida de una corrección y, después, una etapa más tranquila donde las soluciones útiles sobreviven y se integran en el día a día.

Con esa experiencia en mente, explica que Hugging Face intenta aprender de esos ciclos anteriores. La meta es construir una empresa sostenible y con impacto a largo plazo, no solo engancharse al boom actual de los modelos de lenguaje grandes. Por eso evita decisiones guiadas por la prisa o el pánico que percibe en parte del mercado.

Su crítica más áspera va justo en esa dirección: ve a muchas compañías de LLM actuando con urgencia extrema, levantando rondas enormes y gastando a un ritmo difícil de sostener, todo con la esperanza de llegar las primeras a ese supuesto “modelo definitivo” que lo resolvería todo. Esa carrera, para él, es la esencia de la burbuja.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram