DeepSeek se ha colado en móviles y oficinas a toda velocidad, y ya está topando un muro inesperado: gobiernos de medio mundo empiezan a restringirla o directamente a vetarla en el ámbito oficial. El debate ya no gira en torno a si responde bien a un prompt, sino a algo bastante más serio: datos personales, seguridad nacional y opacidad sobre lo que ocurre bajo el capó.
Las propias políticas de la compañía reconocen que la información de los usuarios se almacena en servidores ubicados en China. Traducido al lenguaje de la administración pública: si un funcionario —o cualquier empleado con acceso a documentación sensible— usa la herramienta para resumir, redactar o analizar información interna, existe el temor de que parte de ese contenido salga del perímetro de control del país.
Y no, no se trata solo de paranoia geopolítica. En Europa, este tipo de arquitectura choca frontalmente con la cultura regulatoria de privacidad. No basta con prometer que todo va bien: hay que demostrarlo, documentarlo y explicarlo con un nivel de transparencia que DeepSeek, de momento, no parece ofrecer.
Alemania ha sido especialmente contundente. El comisionado alemán de protección de datos confirmó que se pidió a las grandes tiendas de aplicaciones retirar DeepSeek, alegando riesgos para la seguridad de los datos. No es una simple recomendación de uso responsable: es presión directa sobre el canal de distribución, donde el impacto es inmediato.

Italia también pulsó el botón rojo. En enero de 2025 bloqueó temporalmente la aplicación por falta de información clara sobre el uso de los datos personales, pero lo relevante es lo que vino después. No se limitó al bloqueo: abrió una investigación formal sobre la calidad de la información que recibían los usuarios.
Aquí aparece un matiz importante que a menudo se pasa por alto. En IA, la transparencia no es solo “dónde van mis datos”, sino también qué fiabilidad tiene lo que me estás entregando. La autoridad italiana terminó cerrando la investigación tras pactar compromisos con la empresa para mejorar la claridad sobre los riesgos de resultados incorrectos, las famosas alucinaciones, aunque nadie use ese término en documentos oficiales.
También te puede interesar:DeepSeek AI supera a ChatGPT y se convierte en la app Más Descargada en la App StoreFrancia optó por una vía algo distinta. No fue al veto inmediato, pero sí al “explícame exactamente qué haces”. Exigió aclaraciones detalladas sobre el tratamiento de datos, una señal bastante clara de que el regulador considera que la letra pequeña no está a la altura de la promesa comercial.

Países Bajos combinó ambas estrategias. Inició una investigación, recomendó prudencia al público general y prohibió el uso de DeepSeek a funcionarios públicos. Aunque la app siga disponible para ciudadanos, el mensaje es nítido: no es una herramienta confiable para la operativa del Estado.
Corea del Sur aplicó una medida muy característica de esta etapa: cortar el crecimiento mientras se investiga. Suspendió nuevas descargas tras detectar incumplimientos en el manejo de datos personales. No prohibió el uso a quienes ya la tenían instalada, pero evitó que siguiera expandiéndose.
El acceso se restableció más tarde bajo condiciones revisadas, lo que deja una lectura incómoda: muchas IA se lanzan rápido y se corrigen cuando el regulador aparece.
Taiwán fue mucho más tajante. Prohibió el uso de DeepSeek en dependencias gubernamentales por considerarla un riesgo de seguridad, citando tanto el almacenamiento de datos en China como posibles problemas de censura. En un contexto de tensión regional, cualquier tecnología capaz de capturar contenido sensible se analiza con lupa doble.

Australia tampoco se anduvo con medias tintas. En febrero vetó DeepSeek en todos los dispositivos gubernamentales, alegando riesgo de exposición de información sensible. Da igual lo bien que funcione: no entra en la red pública.
También te puede interesar:Microsoft Inicia Investigación sobre el Uso de APIs de OpenAI por DeepSeekIndia, por su parte, dio un paso aún más revelador. Instruyó al personal del Ministerio de Finanzas a evitar herramientas de IA generalista, incluyendo DeepSeek y ChatGPT, en tareas estatales. El mensaje de fondo es claro: la administración pública no va a usar IA “de consumo”. Necesitará versiones específicas, despliegues locales o entornos cerrados.
En Estados Unidos, el debate escala cuando aparece la palabra “militar”. Un grupo de legisladores recomendó incluir a DeepSeek en una lista de empresas tecnológicas potencialmente vinculadas a intereses militares chinos. Si esa clasificación prospera, las consecuencias irían mucho más allá de la app: restricciones comerciales, bloqueos de integración y cierre de mercados.
El escrutinio ya no se limita a agencias de datos. También se ha extendido a organismos de protección del consumidor y autoridades antimonopolio. Cuando te miran desde tantos ángulos a la vez, el problema deja de ser técnico y pasa a ser político.

Mientras tanto, Rusia juega la partida inversa. En febrero, Vladímir Putin pidió a Sberbank colaborar activamente en proyectos conjuntos de IA con grupos chinos. La imagen es clara: Occidente restringe por desconfianza; Moscú coopera por estrategia.
El caso DeepSeek es un aviso para navegantes. La IA ya no compite solo en benchmarks; compite en confianza. Y esa confianza se construye con gobernanza, auditorías y control del dato, no solo con respuestas rápidas y precios bajos.
La gran incógnita es si estas restricciones se quedarán en el sector público o acabarán salpicando al consumo masivo. Si el método pasa por bloquear tiendas de aplicaciones, como ya se ha intentado en Alemania o Corea del Sur, el impacto puede ser inmediato incluso para quien solo quería una IA barata en el móvil.
El escenario que se dibuja es este: modelos cada vez más potentes, sí, pero también más fronteras, más auditorías y más presión para que los datos no hagan turismo sin permiso. Tocará ver si DeepSeek apuesta por transparencia real y opciones de almacenamiento fuera de China, o si la competencia aprovecha el hueco con alternativas que, además de responder bien, puedan decirte sin rodeos dónde termina tu información.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.