Anthropic ha anunciado que su modelo Claude Sonnet 4 podrá procesar ahora hasta 1 millón de tokens en una sola solicitud a través de su API, lo que equivale a aproximadamente 750.000 palabras o 75.000 líneas de código.
Esta cifra es más de cinco veces el límite anterior de 200.000 tokens y supera ampliamente el contexto máximo de 400.000 tokens ofrecido por GPT-5 de OpenAI. La ampliación también estará disponible mediante integraciones con Amazon Bedrock y Google Cloud Vertex AI.
A diferencia de OpenAI, cuyo principal ingreso proviene de las suscripciones de ChatGPT, Anthropic basa su modelo de negocio en vender acceso a sus modelos de IA a empresas a través de una API.
Entre sus clientes clave se encuentran plataformas de IA para programación como GitHub Copilot, Windsurf y Cursor de Anysphere. No obstante, GPT-5 podría amenazar esta posición gracias a un precio competitivo y un rendimiento sólido en tareas de codificación.
Brad Abrams, responsable de producto de la plataforma Claude, afirmó que espera que la actualización beneficie de forma significativa a las plataformas de programación asistida por IA. Sobre el impacto de GPT-5 en su cuota de mercado, minimizó la preocupación, señalando que están “muy satisfechos” con el crecimiento de su negocio API.
Si bien los modelos de IA tienden a mejorar cuando pueden manejar más contexto, especialmente en ingeniería de software, expertos advierten que existe un límite en la efectividad. Modelos como Gemini 2.5 Pro de Google (2 millones de tokens) o Llama 4 Scout de Meta (10 millones) han llevado este enfoque al extremo, aunque estudios sugieren que procesar volúmenes masivos de datos en una sola solicitud no siempre garantiza mejores resultados.
También te puede interesar:Claude Sonnet 4 llega a Perplexity Pro: IA más razonadora, con pensamiento extendidoAnthropic asegura que no solo ha incrementado el tamaño del contexto, sino también su “ventana de contexto efectiva”, es decir, la capacidad del modelo para comprender y aprovechar realmente la información proporcionada. Sin embargo, la compañía no ha revelado las técnicas utilizadas para lograrlo.
La nueva capacidad no será gratuita. Para solicitudes superiores a 200.000 tokens, Anthropic cobrará 6 dólares por millón de tokens de entrada y 22,50 dólares por millón de tokens de salida, un incremento respecto a los 3 dólares y 15 dólares que costaban antes respectivamente.
Este ajuste de precios refleja no solo el costo computacional de manejar contextos más amplios, sino también la estrategia de Anthropic para posicionar a Claude como una herramienta robusta frente al empuje de GPT-5 y otros competidores.
El reto ahora para Anthropic será demostrar que este incremento en el tamaño de la ventana de contexto se traduce en beneficios reales y sostenibles para las empresas, evitando que sea percibido únicamente como una cifra llamativa en la ficha técnica.
También te puede interesar:O3-pro Supera a Google y Anthropic en Matemáticas y Ciencia Según Pruebas RecientesMe dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.