DeepSeek-V3.1 es un nuevo modelo de inteligencia artificial que nace con una idea clara: rendir al máximo en la próxima ola de chips chinos. Podrás elegir entre razonamiento profundo o respuesta veloz según lo que necesites en cada momento, y eso abre la puerta a nuevos usos con mejor rendimiento por memoria y menos coste operativo para empresas y desarrolladores.
La jugada puede tener recorrido en el mercado de IA en China y tocar intereses de NVIDIA, aunque nada cambia de forma automática. Con todo, el enfoque técnico es firme y apunta a independencia tecnológica: si el ecosistema local rinde bien con este modelo, la demanda de hardware occidental podría bajar con el tiempo y dar un vuelco a varias estrategias.
DeepSeek-V3.1 llega personalizado para funcionar con procesadores de IA fabricados en China que todavía están por desplegar en masa, pero para los que ya está preparado. Tanto Bloomberg como Reuters han señalado esa orientación específica, y la propia compañía ha detallado en WeChat que adopta el formato de datos UE8M0 FP8 para esa próxima generación de chips nacionales.
No esperes una revolución instantánea del mercado, porque estamos ante una iteración estratégica. La compañía insiste en que no solo han cambiado los pesos del modelo, también los modos de inferencia, que ya están activos en su servicio. Si esa combinación se traduce en buen rendimiento, puede incomodar a proveedores estadounidenses que hoy dominan el cómputo de IA.
El formato FP8 trabaja con 8 bits y ocupa la mitad de memoria que FP16 o BF16, lo que en teoría permite mayor rendimiento por ciclo y menos consumo de memoria si el escalado está bien resuelto. DeepSeek confirma en su model card en Hugging Face que ha entrenado y ejecutado DeepSeek-V3.1 en UE8M0 FP8, lo que refuerza esa apuesta técnica end-to-end.
Exprimir FP8 exige ingeniería cuidadosa en cuantización, estabilidad y calibración. Si el pipeline está bien ajustado, vas a poder atender más peticiones por GPU, reducir latencias en cargas altas y ajustar mejor los costes por inferencia en servicios web y apps, algo clave cuando los márgenes aprietan.
También te puede interesar:DeepSeek AI supera a ChatGPT y se convierte en la app Más Descargada en la App StoreFormato | Memoria por tensor | Efecto esperado |
---|---|---|
FP8 (UE8M0) | ≈ 50% de FP16/BF16 | Más throughput potencial y menor huella de memoria si el escalado funciona |
FP16 / BF16 | Base de comparación | Mayor consumo de memoria y menor densidad de cómputo por chip |
DeepSeek-V3.1 estrena un sistema de inferencia híbrida con dos modos operativos: Think para razonamiento profundo y Non-Think para respuesta rápida. Puedes alternar entre ellos desde la versión web o la app, según el tipo de tarea: análisis largos y paso a paso, o respuestas directas para asistencia cotidiana y búsquedas contextuales.
La versión Think, según la compañía, alcanza respuestas más rápidas que la versión anterior de su modelo, lo que es llamativo en tareas complejas. Si priorizas latencia mínima y coste, el modo Non-Think encaja mejor. Que ambos modos estén ya en servicio muestra que el cambio no es solo de pesos, también de cómo se decide y ejecuta la inferencia.
DeepSeek-V3.1 está disponible a través de API y sus pesos y código se encuentran en Hugging Face, así que vas a poder integrarlo en tus flujos actuales. Revisa límites de tasa, tamaños de contexto y parámetros recomendados para FP8 antes de mover tráfico de producción, porque una mala configuración puede comerse las ganancias.
China aportó aproximadamente el 13% de los ingresos de NVIDIA en el ejercicio fiscal cerrado en enero de 2024, un dato que marca contexto. Si el cómputo de IA en China pasa del tándem GPU NVIDIA + CUDA a soluciones locales compatibles con UE8M0 FP8, esa demanda de hardware occidental podría reducirse con el tiempo, y eso sí inquieta.
El entorno es político y cambia a toda velocidad. En 2024, Estados Unidos permitió bajo condiciones limitadas la exportación del chip NVIDIA H20 a China, un permiso con recorrido irregular por nuevas regulaciones y por alternativas locales en desarrollo. Toda vía que acerque a China a la independencia de proveedores estadounidenses tiene un claro valor estratégico.
También te puede interesar:Microsoft Inicia Investigación sobre el Uso de APIs de OpenAI por DeepSeekLas restricciones de exportación estadounidenses han incentivado el desarrollo de hardware propio en China y la búsqueda de formatos como FP8 que exprimen memoria y cómputo. Con todo, la migración completa no es trivial y requiere meses de ingeniería entre kernels, compiladores, bibliotecas y drivers, por lo que DeepSeek-V3.1 debe leerse como un paso más en esa dirección.
Según Financial Times, DeepSeek intentó entrenar su modelo R2 con chips Ascend de Huawei y se topó con problemas técnicos que le llevaron a usar hardware de NVIDIA. La compañía, Sigue buscando compatibilidad de inferencia con hardware chino, lo que encaja con el objetivo de anclar el stack a soluciones locales y reducir dependencias.
En la plataforma MathArena de ETH Zurich, GPT-5 aparece como líder en matemáticas reales y DeepSeek-V3.1 en modo Think compite justo detrás de los mejores. Este rendimiento no convierte el mercado por sí solo, pero sí refuerza la idea de que, si el modelo rinde así con FP8 y nuevos modos, puede tensar a rivales que dominan hoy el cómputo.
Recuerda que cada benchmark mide algo concreto y no sustituye tus métricas internas. Lo inteligente es reproducir tus casos reales, medir latencia y coste en tu infraestructura y, después, decidir si mueves carga hacia DeepSeek-V3.1, mantienes un mix con GPU NVIDIA o ensayas una transición progresiva hacia chips compatibles con UE8M0 FP8.
Además de nuevos pesos, hay modos de inferencia Think y Non-Think ya en servicio, con la particularidad de que el modo Think responde más rápido que antes. La adopción de UE8M0 FP8 para entrenamiento y ejecución busca mejorar densidad de cómputo y memoria, y preparar el terreno para chips chinos de nueva hornada.
Sí, tienes API disponible y acceso a pesos y código en Hugging Face. Vas a poder probarlo en tu servicio web, en notebooks o en una versión de escritorio con clientes locales, comparando el modo Think para tareas complejas y Non-Think para asistencia diaria, y ajustando costes con perfiles de carga reales.
También te puede interesar:Microsoft Amplía Copilot Con Galería Creativa Y Modelos 3D Generados Por IAEl modelo se alinea con una gama de chips chinos que aún no están ampliamente desplegados, pero ya está preparado para ellos. Si el rendimiento y la disponibilidad acompañan, la demanda de hardware occidental podría enfriarse en China y presionar a NVIDIA, aunque la transición llevará meses y dependerá de regulaciones y de la madurez del software.
En pocas líneas: DeepSeek-V3.1 apunta a los nuevos chips chinos con FP8 UE8M0, mezcla modos Think y Non-Think ya operativos y compite fuerte en pruebas como MathArena. El impacto en NVIDIA llegará solo si el rendimiento se sostiene en producción y la industria china acelera su despliegue; mientras tanto, tienes API y pesos listos para probarlo hoy.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.