Las cifras que maneja Sam Altman ya no parecen de este mundo. Tras cerrar una ronda de financiación estratosférica, ahora sabemos que OpenAI estaría dispuesta a desembolsar la friolera de 20.000 millones de dólares en hardware de Cerebras durante los próximos tres años. Una auténtica locura.
De confirmarse los rumores financieros adelantados por medios como Reuters, estaríamos ante un movimiento sísmico en la industria de los semiconductores. El objetivo principal de la empresa creadora de ChatGPT es evidente: cortar por lo sano su dependencia casi absoluta de los fabricantes tradicionales y controlar su propia supervivencia técnica a largo plazo.
Un cheque en blanco con derecho a roce corporativo
Si miramos los números con lupa, el pacto inicial parte de esos veinte mil millones, pero el techo contemplado es considerablemente mayor. Las proyecciones internas filtradas sugieren que OpenAI podría llegar a inyectar hasta 30.000 millones de dólares en la prometedora start-up californiana.

Y la letra pequeña es que no se trata de una simple transacción comercial de compraventa. A cambio de esta riada de millones, OpenAI obtendría una codiciada participación minoritaria en Cerebras que podría acercarse al 10%. Un movimiento maestro para asegurar un alineamiento accionarial total entre ambas firmas.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaA ello se le suma un montante adicional nada despreciable. El preacuerdo incluiría aproximadamente 1.000 millones de dólares extra destinados íntegramente a financiar la construcción de centros de datos específicos. Básicamente, OpenAI no solo adquiere los revolucionarios procesadores, sino que paga de su bolsillo la casa a medida donde van a operar.
El monstruo de 900.000 núcleos y la obsesión por la inferencia
Quizás el nombre de Cerebras no te resuene tanto en la cabeza como el de otras marcas de tarjetas gráficas, pero en los oscuros círculos de la ingeniería son famosos por una genialidad: fabrican chips masivos del tamaño de una oblea de silicio completa.
En concreto, su actual joya de la corona es el portentoso modelo WSE-3, catalogado unánimemente como el mayor chip de IA del planeta. Hablamos de un componente de dimensiones absurdas equipado con 900.000 núcleos de procesamiento. Una bestia que ni se inmuta ante las operaciones matemáticas más pesadas que existen hoy en día.

Pero claro, la clave de todo este tinglado es entender para qué necesitan exactamente este hardware. La industria de la inteligencia artificial está virando agresivamente desde el entrenamiento de grandes modelos fundacionales hacia la etapa pura de inferencia. Es decir, el proceso real y constante de servir respuestas a los usuarios consumiendo la menor cantidad de energía posible.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaEl motivo es simple: cuando tienes millones de peticiones simultáneas para generar líneas de código, renderizar imágenes detalladas o activar agentes autónomos, la latencia es tu peor enemigo. Y es justo en este campo donde la arquitectura extrema de Cerebras rompe el mercado, ofreciendo tiempos de respuesta ultrarrápidos y una interactividad espectacular.
Una estrategia de diversificación justo a tiempo para la bolsa
Como era de esperar, esta mega-alianza viene de lejos. Ambas compañías ya habían dejado pistas en enero, cuando anunciaron un ambicioso despliegue para añadir 750 MW de capacidad de cómputo de inferencia de baja latencia. Un proyecto mastodóntico que se irá implementando por fases hasta alcanzar su pleno rendimiento técnico en el año 2028.
Evidentemente, OpenAI no va a tirar a la basura de la noche a la mañana su infraestructura actual. Lo que vemos es una estrategia de diversificación de servidores de libro. Dependiendo del tipo de carga de trabajo que mande el usuario, el sistema ruteará la petición hacia las granjas de GPU convencionales o, si requiere velocidad crítica, hacia las placas de Cerebras.
Y el resto del sector toma buena nota de esta tendencia. AWS, el gigante en la nube de Amazon, lleva tiempo colaborando con Cerebras para potenciar sus entornos de ejecución. Están combinando los nodos CS-3 con sus chips propietarios Trainium para reventar los cuellos de botella. Nadie ignora ya que el futuro pasa por este enfoque híbrido.
Por si fuera poco, el reloj mediático corre muy a favor del fabricante de chips. Cerebras está ultimando los detalles para ejecutar su esperada salida a bolsa durante este mismo trimestre. Atar un compromiso financiero estratosférico con la empresa líder de la IA es el mejor cartel de neón posible para deslumbrar a los analistas de Wall Street.
Mientras se cierran los últimos flecos, OpenAI continúa reinvirtiendo el brutal efectivo logrado en su última ronda récord que la valoró en 122.000 millones de dólares. Están moldeando a billetazos la arquitectura del mañana para asegurarse de que nadie les quite el trono. La pelota está en el tejado de la competencia tradicional, que tendrá que espabilar si no quiere ver cómo le comen la tostada en el vital mercado de la inferencia.

Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.











