Abre los ojos a un movimiento que marca rumbo en la computación de IA. OpenAI ha dado un paso que puede cambiar cómo se alimentan ChatGPT y Sora, y cómo crecen los modelos más avanzados. En las próximas líneas te contamos cómo esta jugada encaja con la competencia, qué capacidad promete y por qué los chips propios de OpenAI apuntan a un salto de potencia muy serio.
La asociación entre OpenAI y Broadcom está pensada para fabricar los chips propios de OpenAI que alimentarán sus centros de datos de inteligencia artificial. Con este paso, la compañía busca asegurar potencia de cálculo a gran escala y reducir la dependencia de proveedores externos. La idea es clara: controlar mejor la cadena, y ajustar el hardware exactamente a lo que piden sus modelos.
El objetivo práctico es reducir la dependencia de Nvidia y garantizar recursos para servicios como ChatGPT y Sora, además de acelerar el camino hacia una IA más capaz. Con chips propios de OpenAI, será posible tener mejoras en disponibilidad, tiempos de respuesta y, con el tiempo, nuevas funciones que hoy resultan muy costosas o lentas de desplegar.
El acuerdo anunciado permite desarrollar y desplegar 10 gigavatios de aceleradores personalizados de IA basados en los chips propios de OpenAI y sus sistemas asociados. Para que lo sitúes, la producción típica de un reactor nuclear ronda un gigavatio, así que hablamos de una capacidad descomunal para entrenar y servir modelos a escala global.
Se espera que Broadcom empiece a instalar racks de equipos en la segunda mitad de 2026, con un despliegue progresivo hasta finales de 2029. Los resultados no llegarán de golpe, porque la integración de los chips propios de OpenAI en centros de datos exige pruebas, optimización de software y ajustes operativos en varias fases.
OpenAI defiende que, al diseñar los chips propios de OpenAI, puede incorporar directamente en el hardware lo aprendido con modelos y productos. Esto significa ajustar memoria, interconexiones y aceleración de operaciones clave para desbloquear nuevos niveles de capacidad e inteligencia. Ajustar hardware y software en conjunto requiere tiempo y coordinación con la pila completa.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaEste anuncio llega después de cerrar un acuerdo de 6 gigavatios con AMD y otro de 10 gigavatios con Nvidia. Esos pasos han sido posibles tras modificar el acuerdo de exclusividad con Microsoft para computación de IA, lo que abrió la puerta a nuevas colaboraciones de infraestructura. Los chips propios de OpenAI se suman así a una estrategia de suministro diversificada.
La apuesta por chips personalizados crece en toda la industria. Meta, Google y Microsoft avanzan por la misma senda para reforzar su suministro de cómputo y depender menos de los chips de IA de Nvidia. Estos proyectos todavía no han puesto en riesgo el dominio de Nvidia, aunque han impulsado a fabricantes como Broadcom, que ganan peso y contratos relevantes.
Con más capacidad, las mejoras vendrán en tiempos de respuesta, estabilidad del servicio y frecuencia de nuevas funciones en ChatGPT y Sora. La arquitectura ajustada de los chips propios de OpenAI también puede traducirse en entrenamientos más rápidos y modelos más útiles para tu trabajo diario, desde escribir y resumir hasta generar vídeo y audio con menor latencia.
Sam Altman, cofundador y CEO de OpenAI, presenta la alianza con Broadcom como un paso clave para construir la infraestructura que desbloquee el potencial de la IA. El mensaje es directo: más capacidad real al servicio de personas y empresas, con los chips propios de OpenAI como base para crecer en rendimiento y fiabilidad sin frenar la investigación.
Conviene poner los pies en la tierra. El calendario 2026–2029 implica que la mayor parte del impacto llegará en varios años, y el liderazgo de Nvidia sigue muy fuerte. Los chips propios de OpenAI mejoran su posición, sí, pero el mercado de aceleradores es complejo, y la coordinación con proveedores y centros de datos sigue siendo crítica.
En conjunto, la alianza con Broadcom sitúa a los chips propios de OpenAI en el centro de su estrategia para reducir la dependencia de Nvidia, asegurar potencia para ChatGPT y Sora y acercarse a una IA más capaz.
También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científicaCon 10 gigavatios de aceleradores personalizados en el horizonte y un despliegue entre 2026 y 2029, la infraestructura crece para ofrecer beneficios reales a personas y negocios, paso a paso y con una base de hardware a medida.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.