IA / Inteligencia ArtificialMetaOpenAISora 2NotebookLMSB 243SlackbotSlackNano BananaBaby Dragon Hatchling (BDH)Agentes IASpotifyChatGPTVeo 3.1apple

Sellan Colaboración Entre OpenAI y Broadcom Para Fabricar sus Propios Chips de IA

 | octubre 14, 2025 06:02

Abre los ojos a un movimiento que marca rumbo en la computación de IA. OpenAI ha dado un paso que puede cambiar cómo se alimentan ChatGPT y Sora, y cómo crecen los modelos más avanzados. En las próximas líneas te contamos cómo esta jugada encaja con la competencia, qué capacidad promete y por qué los chips propios de OpenAI apuntan a un salto de potencia muy serio.

Lo que sabemos del acuerdo OpenAI y Broadcom para los chipsde OpenAI

La asociación entre OpenAI y Broadcom está pensada para fabricar los chips propios de OpenAI que alimentarán sus centros de datos de inteligencia artificial. Con este paso, la compañía busca asegurar potencia de cálculo a gran escala y reducir la dependencia de proveedores externos. La idea es clara: controlar mejor la cadena, y ajustar el hardware exactamente a lo que piden sus modelos.

La asociación entre OpenAI y Broadcom

Objetivo principal: menos dependencia de Nvidia y más potencia garantizada

El objetivo práctico es reducir la dependencia de Nvidia y garantizar recursos para servicios como ChatGPT y Sora, además de acelerar el camino hacia una IA más capaz. Con chips propios de OpenAI, será posible tener mejoras en disponibilidad, tiempos de respuesta y, con el tiempo, nuevas funciones que hoy resultan muy costosas o lentas de desplegar.

Capacidad prometida: 10 gigavatios de aceleradores personalizados de IA

El acuerdo anunciado permite desarrollar y desplegar 10 gigavatios de aceleradores personalizados de IA basados en los chips propios de OpenAI y sus sistemas asociados. Para que lo sitúes, la producción típica de un reactor nuclear ronda un gigavatio, así que hablamos de una capacidad descomunal para entrenar y servir modelos a escala global.

  • Más margen para entrenar modelos grandes, con más datos y durante más tiempo.
  • Menos cuellos de botella en el servicio web y la versión de escritorio de ChatGPT.
  • Opciones de despliegue más rápidas para funciones nuevas y mejoras de seguridad.

Calendario del despliegue con Broadcom: de 2026 a 2029

chips propios de OpenAI

Se espera que Broadcom empiece a instalar racks de equipos en la segunda mitad de 2026, con un despliegue progresivo hasta finales de 2029. Los resultados no llegarán de golpe, porque la integración de los chips propios de OpenAI en centros de datos exige pruebas, optimización de software y ajustes operativos en varias fases.

  1. Define requisitos y arquitectura de los aceleradores personalizados.
  2. Instala los primeros racks a partir de 2026 y valida rendimiento.
  3. Escala la capacidad hasta 2029 con los chips de OpenAI ya integrados en la plataforma.

Por qué diseñar hardware propio puede elevar los modelos de OpenAI

OpenAI defiende que, al diseñar los chips propios de OpenAI, puede incorporar directamente en el hardware lo aprendido con modelos y productos. Esto significa ajustar memoria, interconexiones y aceleración de operaciones clave para desbloquear nuevos niveles de capacidad e inteligencia. Ajustar hardware y software en conjunto requiere tiempo y coordinación con la pila completa.

También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en Europa

Cómo encaja junto a AMD, Nvidia y Microsoft tras la exclusividad

OpenAI se Blinda con un Acuerdo Billonario: Nvidia, AMD y Oracle le Abren sus Servidores

Este anuncio llega después de cerrar un acuerdo de 6 gigavatios con AMD y otro de 10 gigavatios con Nvidia. Esos pasos han sido posibles tras modificar el acuerdo de exclusividad con Microsoft para computación de IA, lo que abrió la puerta a nuevas colaboraciones de infraestructura. Los chips propios de OpenAI se suman así a una estrategia de suministro diversificada.

Tendencia del sector: chips personalizados de Meta, Google y Microsoft

La apuesta por chips personalizados crece en toda la industria. Meta, Google y Microsoft avanzan por la misma senda para reforzar su suministro de cómputo y depender menos de los chips de IA de Nvidia. Estos proyectos todavía no han puesto en riesgo el dominio de Nvidia, aunque han impulsado a fabricantes como Broadcom, que ganan peso y contratos relevantes.

Impacto práctico: qué esperar en ChatGPT y Sora con chips propios de OpenAI

qué esperar en ChatGPT y Sora con chips propios de OpenAI

Con más capacidad, las mejoras vendrán en tiempos de respuesta, estabilidad del servicio y frecuencia de nuevas funciones en ChatGPT y Sora. La arquitectura ajustada de los chips propios de OpenAI también puede traducirse en entrenamientos más rápidos y modelos más útiles para tu trabajo diario, desde escribir y resumir hasta generar vídeo y audio con menor latencia.

  • Más disponibilidad en horas punta y menos colas en el servicio web.
  • Funcionalidades de IA multimodal más fluidas y, en algunos casos, más baratas en coste por operación.
  • Mejoras de seguridad y control, gracias a hardware y software diseñados para trabajar juntos.

La visión pública: lo que destaca Sam Altman sobre la infraestructura de IA

Sam Altman, cofundador y CEO de OpenAI, presenta la alianza con Broadcom como un paso clave para construir la infraestructura que desbloquee el potencial de la IA. El mensaje es directo: más capacidad real al servicio de personas y empresas, con los chips propios de OpenAI como base para crecer en rendimiento y fiabilidad sin frenar la investigación.

Riesgos y límites que debes tener en cuenta con los chips propios de OpenAI

Conviene poner los pies en la tierra. El calendario 2026–2029 implica que la mayor parte del impacto llegará en varios años, y el liderazgo de Nvidia sigue muy fuerte. Los chips propios de OpenAI mejoran su posición, sí, pero el mercado de aceleradores es complejo, y la coordinación con proveedores y centros de datos sigue siendo crítica.

En conjunto, la alianza con Broadcom sitúa a los chips propios de OpenAI en el centro de su estrategia para reducir la dependencia de Nvidia, asegurar potencia para ChatGPT y Sora y acercarse a una IA más capaz.

También te puede interesar:OpenAI une fuerzas con los Laboratorios Nacionales de EEUU para transformar la investigación científica

Con 10 gigavatios de aceleradores personalizados en el horizonte y un despliegue entre 2026 y 2029, la infraestructura crece para ofrecer beneficios reales a personas y negocios, paso a paso y con una base de hardware a medida.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram