GrokyoutubePerplexityChromeSonnet 4AnthropicGemini Liveinteligencia artificialGartnerGPT-5SiriappleClaudeGoogleWaveForms

El nuevo Claude Sonnet 4 promete más memoria que GPT-5, pero con precios más altos

 | agosto 13, 2025 06:27

Anthropic ha anunciado que su modelo Claude Sonnet 4 podrá procesar ahora hasta 1 millón de tokens en una sola solicitud a través de su API, lo que equivale a aproximadamente 750.000 palabras o 75.000 líneas de código.

Esta cifra es más de cinco veces el límite anterior de 200.000 tokens y supera ampliamente el contexto máximo de 400.000 tokens ofrecido por GPT-5 de OpenAI. La ampliación también estará disponible mediante integraciones con Amazon Bedrock y Google Cloud Vertex AI.

Un movimiento para reforzar su negocio en IA para empresas

A diferencia de OpenAI, cuyo principal ingreso proviene de las suscripciones de ChatGPT, Anthropic basa su modelo de negocio en vender acceso a sus modelos de IA a empresas a través de una API.

Entre sus clientes clave se encuentran plataformas de IA para programación como GitHub Copilot, Windsurf y Cursor de Anysphere. No obstante, GPT-5 podría amenazar esta posición gracias a un precio competitivo y un rendimiento sólido en tareas de codificación.

Brad Abrams, responsable de producto de la plataforma Claude, afirmó que espera que la actualización beneficie de forma significativa a las plataformas de programación asistida por IA. Sobre el impacto de GPT-5 en su cuota de mercado, minimizó la preocupación, señalando que están “muy satisfechos” con el crecimiento de su negocio API.

Más contexto no siempre significa más precisión

Si bien los modelos de IA tienden a mejorar cuando pueden manejar más contexto, especialmente en ingeniería de software, expertos advierten que existe un límite en la efectividad. Modelos como Gemini 2.5 Pro de Google (2 millones de tokens) o Llama 4 Scout de Meta (10 millones) han llevado este enfoque al extremo, aunque estudios sugieren que procesar volúmenes masivos de datos en una sola solicitud no siempre garantiza mejores resultados.

También te puede interesar:Claude Sonnet 4 llega a Perplexity Pro: IA más razonadora, con pensamiento extendido

Anthropic asegura que no solo ha incrementado el tamaño del contexto, sino también su “ventana de contexto efectiva”, es decir, la capacidad del modelo para comprender y aprovechar realmente la información proporcionada. Sin embargo, la compañía no ha revelado las técnicas utilizadas para lograrlo.

Impacto en costos y estrategia competitiva

La nueva capacidad no será gratuita. Para solicitudes superiores a 200.000 tokens, Anthropic cobrará 6 dólares por millón de tokens de entrada y 22,50 dólares por millón de tokens de salida, un incremento respecto a los 3 dólares y 15 dólares que costaban antes respectivamente.

Este ajuste de precios refleja no solo el costo computacional de manejar contextos más amplios, sino también la estrategia de Anthropic para posicionar a Claude como una herramienta robusta frente al empuje de GPT-5 y otros competidores.

El reto ahora para Anthropic será demostrar que este incremento en el tamaño de la ventana de contexto se traduce en beneficios reales y sostenibles para las empresas, evitando que sea percibido únicamente como una cifra llamativa en la ficha técnica.

También te puede interesar:O3-pro Supera a Google y Anthropic en Matemáticas y Ciencia Según Pruebas Recientes
Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram