¿Qué pasa cuando crees que cerraste un gran trato y, de golpe, descubres que la otra parte lo veía más como una “invitación” que como una promesa? En la cocina de los negocios tecnológicos, esa diferencia puede cambiarlo todo. Y eso es lo que hoy asoma entre NVIDIA y OpenAI.
Según The Wall Street Journal, el megacuerdo que en septiembre de 2025 se presentó como una “inversión estratégica” de hasta 100.000 millones de dólares está ahora “congelado”, y NVIDIA lo considera no vinculante. El hallazgo revela un giro: donde antes se leía alianza histórica, ahora aparece un borde de cautela.

En paralelo, en una reunión con periodistas en Taipéi, Jensen Huang, CEO de NVIDIA, fue categórico sobre el presente inmediato: la compañía participará “absolutamente” en la nueva ronda de financiación de OpenAI. Pero también bajó el volumen de la cifra. Señaló que será probablemente la mayor inversión que hizo NVIDIA, aunque no se acercará a los 100.000 millones.
La clave, según explicó Huang, es el lenguaje del compromiso. Subrayó que “nunca hubo un compromiso” firme por 100.000 millones. Dijo que OpenAI los invitó a invertir “hasta” esa cifra y que NVIDIA lo evaluaría ronda a ronda, como quien revisa un presupuesto por etapas y no firma un cheque en blanco.
Ahora bien, el sistema tiene dos momentos que se parecen, pero no son iguales: el entrenamiento (cuando el modelo aprende) y la inferencia (cuando responde ya entrenado, en tiempo real). Ahí aparece una tensión técnica con consecuencias financieras.
Según Reuters, OpenAI está insatisfecha con algunos chips de NVIDIA porque son excelentes para entrenamiento, pero no igual de eficientes para inferencia. Por eso explora alternativas específicas y conversa con empresas como Cerebras. También miró a Groq, pero un acuerdo de NVIDIA para licenciar su tecnología por 20.000 millones de dólares habría bloqueado de facto esa vía.
Es un engranaje sutil: cuando el proveedor también mueve piezas para limitar tus opciones, la diversificación deja de ser una idea abstracta y se vuelve una urgencia operativa.
La relación viene de lejos. En 2016, Huang regaló a Elon Musk un servidor DGX-1, el primer “superordenador de escritorio” de NVIDIA para IA, para impulsar los proyectos de OpenAI. Con la explosión de ChatGPT en 2022, OpenAI pasó a ser uno de los mayores clientes de chips de NVIDIA, mientras NVIDIA tomaba participaciones en la empresa. Quid pro quo: uno necesitaba cómputo; el otro, un cliente gigante.

Pero cuando se mezcla provisión de hardware con inversión, el interruptor cambia. Ya no se trata solo de vender más GPUs: también entra en juego cuánto riesgo financiero se carga en el tablero. Y ahí el “hasta 100.000 millones” deja de ser épica para convertirse en exposición.
En público, Sam Altman buscó bajar la espuma. Dijo que esperan seguir siendo un cliente gigantesco de NVIDIA “durante muchísimo tiempo”. Sin embargo, las posiciones de ambos dejan un choque narrativo: Huang acota compromisos; Altman necesita mostrar continuidad.
OpenAI, además, viene ensayando un “jugar a varias bandas” que incluye ser accionista de AMD, rival directo de NVIDIA. Y en el frente financiero se mueve con cifras mareantes: Amazon negocia una posible inversión de hasta 50.000 millones de dólares, mientras SoftBank conversa por hasta 30.000 millones adicionales, sobre una promesa previa de 40.000 millones.
También te puede interesar:G-Assist de Nvidia: Ahora con Plugins para Spotify, Twitch y GeminiEl punto final es casi doméstico: cuando una casa depende de un único tablero eléctrico, cualquier falla oscurece todo. Tradicionalmente se teme el lock-in (atrapado con un proveedor), pero aquí asoma el caso inverso: si NVIDIA se comprometiera demasiado, podría quedar atada al destino de un solo cliente. Y nadie quiere que el cableado central tenga un único interruptor.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.