Detrás del boom de la IA generativa ha surgido una interesante una paradoja: ChatGPT es masivo, pero su éxito no lo vuelve rentable. La fuente del fenómeno es clara: OpenAI, la compañía que empujó la popularidad global con GPT‑3.5, el modelo que combinó facilidad de uso y buenos resultados.
Ahora, varios análisis advierten que OpenAI está en números rojos y podría quedarse sin liquidez hacia mediados de 2027 si mantiene el ritmo actual. Y la cifra central que explica el mecanismo es brutal: se estima que ChatGPT supera los 800 millones de usuarios activos semanales, pero alrededor del 95% lo usa gratis.
“OpenAI paga a otros con sus acciones sobrevaloradas”, sostuvo el economista Sebastian Malaby, del Consejo de Relaciones Exteriores.
Para entender el engranaje, conviene imaginarlo como una casa con la calefacción siempre prendida. Cuanta más gente entra, más “habitaciones” hay que climatizar. En IA, esa calefacción son los servidores y los chips que procesan cada pedido, incluso el más simple.
Además, a diferencia de una biblioteca donde el libro se queda quieto, un chatbot responde en tiempo real. Ese trabajo se llama inferencia (calcular una respuesta). Y se repite millones de veces por hora. El servicio puede verse “liviano”, pero el cableado eléctrico detrás es pesado.
Por eso el propio éxito actúa como un interruptor que sube la factura: más usuarios implican más cómputo, más centros de datos y más mantenimiento. En términos domésticos, es como invitar a todo el barrio a cargar el celular en tu casa. La red aguanta, pero la cuenta llega igual.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaOpenAI proyectó que en 2025 necesitaría gastar unos 8.000 millones de dólares en operaciones y desarrollo. Y estima que en 2028 esos gastos podrían trepar a 40.000 millones. El problema es la velocidad: según los analistas citados, la caja no alcanzaría para llegar a ese horizonte.
Mientras tanto, el sector vive una tensión que funciona como pieza clave para entender el mapa. NVIDIA gana vendiendo “palas” en plena fiebre del oro: hardware para IA, es decir, chips y sistemas que otros necesitan para entrenar modelos. En cambio, muchas empresas que construyen modelos grandes quedan atrapadas en el costo de operarlos.
Entrenar un modelo se llama training (enseñar con datos). Y hacerlo a escala exige infraestructura que no se paga sola con suscripciones, al menos por ahora. De hecho, ni el servicio de IA generativa más popular del mundo logró ser rentable.
Sam Altman, CEO de OpenAI, incluso habló de planes para gastar 1,4 billones de dólares (trillion anglosajón) en TPU (chips para IA) y centros de datos. La apuesta busca sostener el liderazgo frente a rivales como Google Gemini 3.0, Anthropic Claude 4.5 o DeepSeek V4. Pero también empuja el contador hacia arriba.
Entonces, ¿dónde está la oportunidad? El texto marca una diferencia central: no es lo mismo crear y operar un modelo gigante que usar IA como herramienta interna. Muchas compañías ya ven beneficios cuando la IA les ahorra tiempo, automatiza tareas y reduce costos operativos.
Incluso hay empresas que reemplazan puestos por sistemas de IA. Si el rendimiento es equivalente, el ahorro laboral aparece rápido. En otras palabras: para algunos, la IA es una herramienta de taller; para otros, es construir la fábrica completa y pagar la luz de toda la ciudad.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaEn paralelo, consultoras como Bain & Company advirtieron en 2025 sobre un “agujero negro” de 800.000 millones de dólares en el sector. La imagen es fuerte: mucho dinero entrando, pero retornos todavía difusos. Y eso alimenta la duda de una burbuja.
OpenAI, por su parte, busca oxígeno con acuerdos y distribución. Un ejemplo: Movistar firmó un convenio para ofrecer seis meses de ChatGPT gratis a sus clientes, una estrategia para ampliar alcance y abrir nuevas vías de ingresos.
Si el sector supera esta fase, la IA podría terminar como la electricidad: invisible, estable y presente en todo. La clave será que el interruptor de la popularidad también encienda, por fin, un modelo de negocio que cierre.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.