Anthropic anunció Claude Opus 4.7 con el mismo precio oficial que Opus 4.6. Mantiene un coste de 5 dólares por millón de tokens de entrada y 25 dólares por millón de tokens de salida. El hallazgo clave es otro: ahora consume más tokens, y eso eleva el coste real.

Los tokens son fragmentos de palabras, símbolos o caracteres. Son la unidad con la que estos modelos leen y escriben texto. Si el precio por unidad no cambia pero el sistema usa más unidades para hacer la misma tarea, la cuenta final sube igual.

Además, Opus 4.7 “piensa más” antes de responder. Ese mecanismo se apoya en un nuevo nivel de esfuerzo, “xhigh”, situado entre “high” y “max”, y activado por defecto. Como los tokens de salida son cinco veces más caros que los de entrada, cada respuesta larga pesa más en el bolsillo.

Los usuarios pueden bajar el nivel de esfuerzo a “high” o “medium” en algunas tareas

Eso es lo que ocurre con el tokenizador, el sistema que convierte texto en tokens. Anthropic lo actualizó en Opus 4.7 y un mismo prompt, la instrucción que escribe el usuario, puede pasar de 1.000 a 1.350 tokens. El interruptor técnico parece pequeño, pero mueve todo el engranaje.

También te puede interesar:Anthropic Presenta Claude Opus 4.7, su IA Avanzada para Programación y Ciberseguridad

Un análisis independiente de Simon Willison mostró la diferencia con un ejemplo concreto: el mismo prompt produjo 5.039 tokens en Opus 4.6 y 7.335 en Opus 4.7. Es decir, cerca de 1,46 veces más. En imágenes, el salto puede ser todavía mayor, hasta 3,01 veces, en parte por el soporte de resoluciones de hasta 3,75 megapíxeles.

El medidor cambió sin tocar la tarifa

Otra señal llegó desde Tokenomics, una herramienta de la comunidad que estima costes. Sus mediciones apuntan a un aumento medio del 38,6% en el consumo. No parece un detalle menor, sobre todo para desarrolladores y equipos que trabajan con límites de uso diarios.

Los tokens de salida son cinco veces más caros que los de entrada

Y ahí aparece la reacción más visible. En foros y redes, varios usuarios criticaron que el modelo ignora instrucciones, alucina, miente o se vuelve más verboso. Algunos incluso lo describieron como menos inteligente o más perezoso. El problema práctico es doble: respuestas discutibles y cuotas que se agotan antes.

De hecho, en comunidades de usuarios ya se habla de una regresión seria. Anthropic respondió que herramientas como el parámetro “/usage” permiten ver en qué se van los tokens y señaló que aumentó las cuotas, aunque sin dar cifras concretas.

Qué se puede hacer para pagar menos

La oportunidad, sin embargo, no desaparece. Los usuarios pueden bajar el nivel de esfuerzo a “high” o “medium” en tareas menos exigentes. También pueden fijar presupuestos de tareas, una especie de tope de gasto por consulta, y reducir la resolución cuando trabajen con imágenes.

Además, sigue existiendo una salida simple: usar Opus 4.6, probar otros modelos o incluso soluciones locales si el costo manda. Porque en IA no solo importa lo que promete la etiqueta. También importa el mecanismo interno, ese pequeño contador oculto que, como en casa, decide cuánto termina costando apretar el interruptor.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios