Elon MuskyoutubeMetaNotebookLMDeepseekChatGPTIA / Inteligencia ArtificialSam AltmanAgentes IAmodo estudioOpenAICodexChatGPT-5

DeepSeek Vuelve a Desafiar a NVIDIA con un Modelo de IA que ya Preocupa en Silicon Valley

 | agosto 26, 2025 05:39

DeepSeek-V3.1 es un nuevo modelo de inteligencia artificial que nace con una idea clara: rendir al máximo en la próxima ola de chips chinos. Podrás elegir entre razonamiento profundo o respuesta veloz según lo que necesites en cada momento, y eso abre la puerta a nuevos usos con mejor rendimiento por memoria y menos coste operativo para empresas y desarrolladores.

La jugada puede tener recorrido en el mercado de IA en China y tocar intereses de NVIDIA, aunque nada cambia de forma automática. Con todo, el enfoque técnico es firme y apunta a independencia tecnológica: si el ecosistema local rinde bien con este modelo, la demanda de hardware occidental podría bajar con el tiempo y dar un vuelco a varias estrategias.

Qué es DeepSeek-V3.1 y cómo se orienta a la nueva generación de chips chinos

DeepSeek-V3.1 llega personalizado para funcionar con procesadores de IA fabricados en China que todavía están por desplegar en masa, pero para los que ya está preparado. Tanto Bloomberg como Reuters han señalado esa orientación específica, y la propia compañía ha detallado en WeChat que adopta el formato de datos UE8M0 FP8 para esa próxima generación de chips nacionales.

No esperes una revolución instantánea del mercado, porque estamos ante una iteración estratégica. La compañía insiste en que no solo han cambiado los pesos del modelo, también los modos de inferencia, que ya están activos en su servicio. Si esa combinación se traduce en buen rendimiento, puede incomodar a proveedores estadounidenses que hoy dominan el cómputo de IA.

Formato UE8M0 FP8: ventajas prácticas en memoria y rendimiento

El formato FP8 trabaja con 8 bits y ocupa la mitad de memoria que FP16 o BF16, lo que en teoría permite mayor rendimiento por ciclo y menos consumo de memoria si el escalado está bien resuelto. DeepSeek confirma en su model card en Hugging Face que ha entrenado y ejecutado DeepSeek-V3.1 en UE8M0 FP8, lo que refuerza esa apuesta técnica end-to-end.

Exprimir FP8 exige ingeniería cuidadosa en cuantización, estabilidad y calibración. Si el pipeline está bien ajustado, vas a poder atender más peticiones por GPU, reducir latencias en cargas altas y ajustar mejor los costes por inferencia en servicios web y apps, algo clave cuando los márgenes aprietan.

También te puede interesar:DeepSeek AI supera a ChatGPT y se convierte en la app Más Descargada en la App Store
FormatoMemoria por tensorEfecto esperado
FP8 (UE8M0)≈ 50% de FP16/BF16Más throughput potencial y menor huella de memoria si el escalado funciona
FP16 / BF16Base de comparaciónMayor consumo de memoria y menor densidad de cómputo por chip

Modos Think y Non-Think de DeepSeek-V3.1: cuándo elegir cada uno

DeepSeek-V3.1 estrena un sistema de inferencia híbrida con dos modos operativos: Think para razonamiento profundo y Non-Think para respuesta rápida. Puedes alternar entre ellos desde la versión web o la app, según el tipo de tarea: análisis largos y paso a paso, o respuestas directas para asistencia cotidiana y búsquedas contextuales.

La versión Think, según la compañía, alcanza respuestas más rápidas que la versión anterior de su modelo, lo que es llamativo en tareas complejas. Si priorizas latencia mínima y coste, el modo Non-Think encaja mejor. Que ambos modos estén ya en servicio muestra que el cambio no es solo de pesos, también de cómo se decide y ejecuta la inferencia.

Cómo cambiar de modo en la web o la app de DeepSeek-V3.1

  1. Abre tu cuenta y entra en la consola de DeepSeek-V3.1 desde la web o la app.
  2. Elige el modo Think para razonamiento detallado o activa Non-Think para contestaciones más ágiles.
  3. Lanza tu consulta y revisa latencia y calidad; ajusta el modo según el caso de uso.
  4. Guarda la configuración por proyecto para mantener consistencia entre sesiones y equipos.

Guía rápida para probar DeepSeek-V3.1 vía API y pesos en Hugging Face

DeepSeek-V3.1 está disponible a través de API y sus pesos y código se encuentran en Hugging Face, así que vas a poder integrarlo en tus flujos actuales. Revisa límites de tasa, tamaños de contexto y parámetros recomendados para FP8 antes de mover tráfico de producción, porque una mala configuración puede comerse las ganancias.

  1. Crea una clave de API y configura tu entorno de prueba.
  2. Selecciona el modo Think o Non-Think según tu métrica objetivo (calidad, latencia o coste).
  3. Envía prompts de validación con trazas y compara con tu baseline actual.
  4. Evalúa consumo de memoria y throughput en tu cluster antes de escalar.

Impacto en NVIDIA: del 13% de ingresos en China a un posible cambio de demanda

China aportó aproximadamente el 13% de los ingresos de NVIDIA en el ejercicio fiscal cerrado en enero de 2024, un dato que marca contexto. Si el cómputo de IA en China pasa del tándem GPU NVIDIA + CUDA a soluciones locales compatibles con UE8M0 FP8, esa demanda de hardware occidental podría reducirse con el tiempo, y eso sí inquieta.

El entorno es político y cambia a toda velocidad. En 2024, Estados Unidos permitió bajo condiciones limitadas la exportación del chip NVIDIA H20 a China, un permiso con recorrido irregular por nuevas regulaciones y por alternativas locales en desarrollo. Toda vía que acerque a China a la independencia de proveedores estadounidenses tiene un claro valor estratégico.

También te puede interesar:Microsoft Inicia Investigación sobre el Uso de APIs de OpenAI por DeepSeek

Ecosistema de hardware chino: restricciones, incentivos y una transición que lleva meses

Las restricciones de exportación estadounidenses han incentivado el desarrollo de hardware propio en China y la búsqueda de formatos como FP8 que exprimen memoria y cómputo. Con todo, la migración completa no es trivial y requiere meses de ingeniería entre kernels, compiladores, bibliotecas y drivers, por lo que DeepSeek-V3.1 debe leerse como un paso más en esa dirección.

Según Financial Times, DeepSeek intentó entrenar su modelo R2 con chips Ascend de Huawei y se topó con problemas técnicos que le llevaron a usar hardware de NVIDIA. La compañía, Sigue buscando compatibilidad de inferencia con hardware chino, lo que encaja con el objetivo de anclar el stack a soluciones locales y reducir dependencias.

Rendimiento de DeepSeek-V3.1 en pruebas reales como MathArena

En la plataforma MathArena de ETH Zurich, GPT-5 aparece como líder en matemáticas reales y DeepSeek-V3.1 en modo Think compite justo detrás de los mejores. Este rendimiento no convierte el mercado por sí solo, pero sí refuerza la idea de que, si el modelo rinde así con FP8 y nuevos modos, puede tensar a rivales que dominan hoy el cómputo.

Recuerda que cada benchmark mide algo concreto y no sustituye tus métricas internas. Lo inteligente es reproducir tus casos reales, medir latencia y coste en tu infraestructura y, después, decidir si mueves carga hacia DeepSeek-V3.1, mantienes un mix con GPU NVIDIA o ensayas una transición progresiva hacia chips compatibles con UE8M0 FP8.

Preguntas clave sobre DeepSeek-V3.1 y su encaje en el ecosistema

¿Qué cambia frente a versiones anteriores?

Además de nuevos pesos, hay modos de inferencia Think y Non-Think ya en servicio, con la particularidad de que el modo Think responde más rápido que antes. La adopción de UE8M0 FP8 para entrenamiento y ejecución busca mejorar densidad de cómputo y memoria, y preparar el terreno para chips chinos de nueva hornada.

¿Puedo usar DeepSeek-V3.1 hoy mismo?

Sí, tienes API disponible y acceso a pesos y código en Hugging Face. Vas a poder probarlo en tu servicio web, en notebooks o en una versión de escritorio con clientes locales, comparando el modo Think para tareas complejas y Non-Think para asistencia diaria, y ajustando costes con perfiles de carga reales.

También te puede interesar:Microsoft Amplía Copilot Con Galería Creativa Y Modelos 3D Generados Por IA

¿A qué chips va destinado y qué implica para el mercado?

El modelo se alinea con una gama de chips chinos que aún no están ampliamente desplegados, pero ya está preparado para ellos. Si el rendimiento y la disponibilidad acompañan, la demanda de hardware occidental podría enfriarse en China y presionar a NVIDIA, aunque la transición llevará meses y dependerá de regulaciones y de la madurez del software.

En pocas líneas: DeepSeek-V3.1 apunta a los nuevos chips chinos con FP8 UE8M0, mezcla modos Think y Non-Think ya operativos y compite fuerte en pruebas como MathArena. El impacto en NVIDIA llegará solo si el rendimiento se sostiene en producción y la industria china acelera su despliegue; mientras tanto, tienes API y pesos listos para probarlo hoy.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram