Se acabó la era de hacer preguntitas a una inteligencia artificial y esperar un texto genérico de vuelta. OpenAI acaba de dar un golpe sobre la mesa presentando oficialmente GPT-5.5, un modelo que no quiere charlar contigo, sino sentarse a hacer tu trabajo de principio a fin. Una auténtica locura. Según detallan en la fuente original de la compañía, el enfoque tecnológico ha cambiado radicalmente hacia la ejecución de software autónomo y la filosofía de «agentes».

Y es que ya no hablamos de un simple asistente textual que te escupe unas cuantas líneas de código. Este nuevo modelo de lenguaje ha sido entrenado para moverse por tu ordenador, analizar datos pesados y liderar una investigación online sin que tengas que llevarle de la mano constantemente. Básicamente, le tiras por la cabeza un problema complejo y él mismo se encarga de abrir las aplicaciones y crear las hojas de cálculo necesarias. Así de simple.

Los números fríos: un 82,7 % en Terminal-Bench 2.0

Si miramos bajo el capó, las cifras de rendimiento que acompañan a esta versión son un claro aviso de defunción para los modelos de la generación anterior. En las exigentes evaluaciones técnicas del sector, GPT-5.5 ha arrasado logrando un apabullante 82,7 % de precisión en Terminal-Bench 2.0. Es decir, se mueve por terminales de comandos con la misma soltura y malicia que un desarrollador veterano. A esta métrica se le suma un 58,6 % en la temida prueba de ingeniería de software SWE-Bench Pro.

Evidentemente, esto tiene consecuencias inmediatas y catastróficas en la guerra de los LLM (Grandes Modelos de Lenguaje). OpenAI ha sido muy pilla comparando su rendimiento en público, donde los datos muestran que supera sin despeinarse a pesos pesados como Claude Opus 4.7 y al recién horneado Gemini 3.1 Pro de Google. Ni sudan. La capacidad de programar de forma persistente y autónoma ha dado un salto cualitativo asombroso.

Un salto en eficiencia con una factura que duele

Pero claro, cuando hablamos de integrar estas bestias matemáticas en nuestro día a día, siempre hay que mirar el daño colateral a la tarjeta de crédito. El despliegue inicial aterriza desde hoy para los usuarios de ChatGPT Plus, Pro, Business y Enterprise. Sin embargo, la compañía ha bloqueado sabiamente el acceso a la versión más avanzada, GPT-5.5 Pro, limitándolo en exclusiva a los suscriptores de los tres planes más caros. Te haces a la idea de qué perfil empresarial buscan exprimir.

En concreto, la estructura de costes para incrustar el cerebro de este modelo en tus propias aplicaciones a través de su inminente API marea bastante. El modelo estándar te supondrá unos contenidos 5 dólares por millón de tokens de entrada y 30 dólares por los de salida. Pero si quieres invocar todo el músculo de GPT-5.5 Pro, tendrás que desembolsar unos dolorosos 180 dólares por millón de tokens de salida. Todo ello operando bajo una ventana de contexto colosal de 1 millón de tokens. La IA premium se paga a precio de oro.

Por si fuera poco, hay novedades técnicas jugosas para los que pican código en la herramienta Codex, que ahora se abre a los planes Edu y Go. Aquí, GPT-5.5 consigue mantener la misma latencia por token que su predecesor (el veterano GPT-5.4), pero necesitando devorar muchos menos tokens para completar la misma función. Además, han metido un modo Fast opcional que acelera el procesamiento 1,5 veces más rápido, aunque asumiendo un coste 2,5 veces mayor. Tú sabrás cuánto vale tu tiempo.

Plataformas corporativas en lugar de simples chats

El motivo es muy transparente: la estrategia final a largo plazo no es venderte un chatbot simpático para hacer los deberes. OpenAI está transformando rápidamente a ChatGPT y Codex en infraestructuras de trabajo puro y duro. Quieren que los equipos de software y los investigadores dejen de conversar y empiecen a delegar flujos de trabajo de varias horas. Quieren que apagues la pantalla y dejes a la IA encendida compilando toda la noche. Literalmente.

Como era de esperar, el grupo de casi 200 socios que han tenido acceso anticipado corrobora justo esta visión. Los early adopters alucinan con la baja necesidad de intervención humana; la IA aguanta mucho más tiempo resolviendo *bugs* sin desviarse en grandes repositorios de código. Y para predicar con el ejemplo, afirman que más del 85 % de la plantilla de OpenAI ya usa Codex semanalmente, y no solo los programadores, sino hasta el departamento de marketing.

Lógicamente, permitir que un software opere de manera autónoma con tu sistema operativo da algo de vértigo. Para evitar desastres, han blindado el lanzamiento con los clasificadores de riesgo cibernético más agresivos que han creado, superando intensas pruebas de red teaming en ciberseguridad y biología sintética. Toca esperar y comer palomitas para ver cómo asimilan este directo a la mandíbula en Mountain View. La pelota de la inteligencia artificial acaba de caer muy fuerte en el tejado de Google.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios