ChatGPTOpenClawMemOSIBMxaiSpaceXOpenAIDGX SparkSpotifyAI WaveMarMistral AIClaudeAnthropicCiencia de DatosAgentes IA

Nueva Versión de OpenAI Codex Impulsada por un Chip Dedicado

 | febrero 13, 2026 06:12

OpenAI acaba de presentar GPT-5.3-Codex-Spark, una versión ligera de Codex que apunta directo a la yugular de un problema muy concreto: la latencia. Si utilizas IA para programar a diario, sabes que lo que realmente rompe el flujo no es la falta de inteligencia del modelo, sino la espera entre prompt y respuesta. Ese pequeño vacío de segundos que parece insignificante en teoría, pero que en la práctica corta la concentración y enfría las ideas.

En este sentido, OpenAI explica que Spark está diseñado para ofrecer una inferencia mucho más rápida que el Codex más reciente lanzado a principios de mes. Sin embargo, lo verdaderamente interesante no es solo que hayan afinado un modelo más pequeño, sino que lo están impulsando con un chip dedicado de su socio de hardware, Cerebras.

Y cuando una compañía como OpenAI empieza a hablar de silicio específico, queda claro que ya no estamos solo ante una mejora incremental de software, sino ante un movimiento estratégico que toca directamente la infraestructura.

OpenAI no solo entrena modelos: ahora se mete hasta la cocina del hardware

La colaboración entre OpenAI y Cerebras se anunció el mes pasado, acompañada de una cifra difícil de ignorar: un acuerdo plurianual superior a los 10.000 millones de dólares. No se trata de “probar algunos servidores” para ver qué pasa, sino de una apuesta sostenida por construir una infraestructura capaz de ofrecer respuestas más rápidas y consistentes.

OpenAI enmarca Spark como el “primer hito” de esa relación, lo cual deja entrever que estamos ante el comienzo de algo más amplio. Cuando una empresa que lidera el desarrollo de modelos empieza a casar sus sistemas con hardware específico, el mensaje es claro: el cuello de botella ya no está únicamente en el software. Al mismo tiempo, surge una pregunta inevitable: ¿estamos presenciando el nacimiento de stacks de IA cada vez más cerrados, donde modelo e infraestructura evolucionan de la mano?

El WSE-3 de Cerebras: el megachip que no juega en la misma liga que una GPU normal

Codex-Spark funcionará sobre el Wafer Scale Engine 3 (WSE-3) de Cerebras, un megachip waferscale de tercera generación que integra 4 billones de transistores. Esto implica que Cerebras no compite en la guerra clásica de “más GPUs por rack”, sino que sigue una filosofía distinta: construir un chip gigantesco con rutas internas extremadamente optimizadas para cargas de trabajo de IA.

También te puede interesar:Nvidia Crea la Supercomputadora de IA más Pequeña del Mundo y Elon Musk Fue de los Primeros en Recibirla

OpenAI subraya que Spark está diseñado para lograr la menor latencia posible dentro del ecosistema Codex, y ahí es precisamente donde Cerebras ha querido diferenciarse. La compañía presume de destacar en escenarios donde la latencia ultrabaja no es un lujo, sino el núcleo del producto. Para el usuario final, todo esto se traduce en algo muy concreto: que Codex deje de sentirse como una herramienta en “modo demo” y empiece a comportarse como un compañero que responde prácticamente en tiempo real.

Por qué Spark importa si programas: menos “tareas épicas” y más prototipado a velocidad de chat

OpenAI define Spark como una herramienta ligera enfocada en la productividad diaria y el prototipado rápido, no en esas tareas largas y complejas para las que está pensado el GPT-5.3 original. No es el Codex más potente en términos de razonamiento profundo, sino el Codex que no te rompe el ritmo.

La orientación es clara: colaboración ágil en tiempo real e iteración rápida. Cuando la IA responde casi al instante, la dinámica de trabajo cambia por completo. Haces más preguntas, pruebas más variantes, te permites explorar caminos alternativos sin sentir que cada experimento te cuesta tiempo. La fricción disminuye y, con ella, la barrera psicológica para experimentar.

Aquí es donde la jugada se vuelve más interesante, porque OpenAI no parece estar pensando en Spark como un modelo aislado, sino como parte de una arquitectura de producto más amplia. La compañía ya habla de un futuro Codex con dos modos complementarios: uno orientado a la colaboración en tiempo real, centrado en la velocidad y la iteración, y otro enfocado en tareas de larga duración que requieran razonamiento y ejecución más profundos. En términos prácticos, sería algo así como un “modo copiloto” inmediato y un “modo agente” que trabaja en segundo plano mientras tú sigues avanzando.

Disponibilidad: de momento, si no pagas Pro, te toca mirar desde la barrera

Por ahora, GPT-5.3-Codex-Spark está disponible como vista previa de investigación para usuarios de ChatGPT Pro dentro de la aplicación de Codex. Antes del anuncio oficial, Sam Altman ya había insinuado en redes sociales que “algo especial” llegaría ese mismo día para los usuarios Pro, preparando el terreno para esta presentación.

Este detalle no es menor, porque confirma una tendencia clara: las mejoras en latencia, que se perciben de forma inmediata y tangible, se están convirtiendo en una de las palancas más sólidas para justificar planes premium. Cuando la diferencia no es solo “más capacidad”, sino “más velocidad”, el valor se siente en cada interacción.

Cerebras huele a protagonista: dinero fresco, valoración alta y una IPO en el horizonte

Cerebras lleva más de una década operando, aunque ha sido con la explosión reciente de la IA cuando su nombre empezó a aparecer junto al de gigantes como NVIDIA, AMD o los grandes hyperscalers. La semana pasada anunció la captación de 1.000 millones de dólares en capital nuevo, alcanzando una valoración de 23.000 millones, y ya había comunicado su intención de salir a bolsa. En ese contexto, una alianza de este calibre con OpenAI funciona como un escaparate difícil de igualar.

Sean Lie, CTO y cofundador de Cerebras, ha señalado que lo más emocionante de Spark es explorar junto a OpenAI y la comunidad de desarrolladores lo que permite la inferencia rápida: nuevos patrones de interacción, casos de uso inéditos y una experiencia que describe como “fundamentalmente distinta”. La idea no es simplemente “hacerlo más rápido”, sino habilitar nuevas formas de usar el producto porque el tiempo de espera deja de formar parte del diseño.

Lie remata calificando esta vista previa como “solo el principio”, una frase que suena a teaser, pero que en este contexto resulta creíble. El listón queda alto: si OpenAI consigue que Codex se sienta verdaderamente instantáneo, el resto del mercado tendrá que responder con algo más que benchmarks atractivos en una diapositiva.

Al final, lo que realmente intriga es esto: si el futuro de la IA aplicada pasa por integrar modelo, chip y experiencia de uso en un mismo diseño coherente, quizás estemos entrando en una nueva fase donde la magia ya no reside únicamente en el LLM, sino en todo el ecosistema técnico que lo sostiene.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram