Microsoft acaba de hacer pública una decisión relevante: bloquea el uso de la aplicación DeepSeek entre sus empleados por motivos de seguridad y riesgo de propaganda, según anunció Brad Smith, vicepresidente de la compañía, durante una reciente audiencia en el Senado de Estados Unidos.
El problema principal para Microsoft (y que puede afectarte si usas DeepSeek) es que la política de privacidad de la app obliga a que todos los datos de usuario se almacenen en servidores en China. Esto puede parecer un detalle menor, pero implica que tus datos quedan automáticamente bajo las leyes chinas y obliga, por ejemplo, a cooperar con las agencias estatales de inteligencia si así lo requieren. E
El temor no solo reside en la protección de información: DeepSeek también censura temas políticamente sensibles, y existe una sospecha real sobre la posible influencia de propaganda en sus respuestas. ¿Cómo te afecta esto como usuario de inteligencia artificial en tu día a día?
La decisión de Microsoft de prohibir DeepSeek dentro de su entorno laboral no surge de la nada. Brad Smith lo explicó de forma directa ante el Senado: la compañía teme por la seguridad de los datos personales y por el “efecto propagandístico” que puede colarse en las respuestas del chatbot. Imagina que tus datos privados, aquello que preguntas o compartes con DeepSeek, terminan almacenados en servidores gestionados bajo estricta legislación china.
La ley en China obliga a las empresas, incluidas las tecnológicas, a cooperar de forma obligatoria con los servicios de inteligencia del país. Por tanto, cualquier dato que envíes a la app queda expuesto a posibles peticiones gubernamentales.
Su preocupación no termina ahí: DeepSeek aplica un filtrado estricto y censura automáticamente cuestiones consideradas “sensibles” por el régimen chino, como pueden ser temas políticos o sociales. Esto refuerza la sospecha de que las respuestas puedan no ser neutrales, alterando el acceso a información.
También te puede interesar:DeepSeek-R1: El modelo de IA de código abierto que desafía a OpenAI o1Microsoft ha decidido no incluir DeepSeek en su tienda de aplicaciones, un gesto que no repite con todos los chatbots rivales. Por ejemplo, Perplexity está disponible, mientras que otros como Gemini o Chrome (ambas de Google) tampoco se hallan en la tienda, aunque por motivos distintos.
Esta ausencia no es casual. Smith y el comité directivo argumentan que permitir DeepSeek supondría exponer a los usuarios de Windows a los mismos riesgos: tus datos podrían quedar en manos ajenas, y la interacción con la app podría estar condicionada por políticas de censura o por la difusión encubierta de ideología estatal china.
La comparación con Copilot —el chatbot de búsqueda propio de Microsoft— es inevitable; Por su parte, la empresa deja claro que el veto no es universal a todos los chatbots, sino específico cuando existe un temor por la seguridad o la transparencia.
A pesar de las restricciones para usar la app de DeepSeek, Microsoft sí permite el modelo R1 de DeepSeek en Azure, su servicio en la nube. Esto puede parecer contradictorio, y aquí es donde hay que distinguir entre la app y el modelo base.
Mientras la aplicación DeepSeek te obliga a mandar datos a servidores chinos, el modelo R1 ofrecido en Azure pasa antes por estrictas pruebas de seguridad y de “red teaming” para descartar funciones dañinas.
Según comunicó la propia Microsoft durante el lanzamiento inicial en Azure, el modelo fue examinado con lupa para lograr que no existieran “efectos secundarios dañinos” y se modificó para adaptarlo a los estándares de la empresa. Brad Smith incluso afirmó ante el Senado que intervinieron “directamente” sobre el sistema para corregir problemas, aunque no detalló las áreas exactas de esos cambios.
También te puede interesar:DeepSeek AI supera a ChatGPT y se convierte en la app Más Descargada en la App StoreDebes saber que, aunque el modelo pueda usarse en Azure y pasar sus propios filtros de seguridad, no equivale a que la app original de DeepSeek (ya sea en versión de escritorio o móvil) haya recibido esa validación.
Dado que DeepSeek es open source (código abierto), cualquiera puede descargar el modelo, instalarlo en servidores locales y ofrecer servicios IA a clientes en línea sin “regalar” datos a terceros. De esta forma, el tráfico y la información generada no sale de tu propio entorno ni toca servidores oficiales de DeepSeek en China.
Aun así, persisten ciertos riesgos. El modelo, incluso cuando no es gestionado por la matriz china, sigue llevando inherentes posibles sesgos, como la censura de temas delicados o una visión limitada por el entorno para el que fue entrenado.
También existe la posibilidad de que el modelo genere código inseguro para tareas especializadas, un aspecto especialmente crítico si planeas integrar la IA en entornos profesionales o productos comerciales. Así que, aunque puedes controlar a dónde van tus datos, no puedes asegurar que las respuestas sean siempre neutras o estén libres de problemas técnicos o de contenido.
No solo Microsoft ha actuado frente a DeepSeek. Otros países y organizaciones ya habían impuesto restricciones o prohibiciones parciales antes de la declaración oficial de la empresa estadounidense. El motivo casi siempre es el mismo: protección de la privacidad, temor a la censura y preocupación por una posible propagación de propaganda o manipulación informativa directa en las respuestas del chatbot.
El hecho de que DeepSeek sea open source no ha servido para calmar todas las críticas, ya que el lugar de almacenamiento de datos (y la obligación de colaboración con las autoridades chinas) sigue siendo percibido como un riesgo, incluso para quienes solo desean experimentar con modelos de IA en contextos educativos o empresariales.
También te puede interesar:Microsoft ofrece miles de dólares a quienes encuentren vulnerabilidades en su IACon todo, la decisión de Microsoft de bloquear DeepSeek refleja cómo las preocupaciones por la seguridad de los datos y la difusión de propaganda pueden redefinir el acceso a herramientas de inteligencia artificial, sobre todo cuando los datos acaban en China y el modelo arrastra mecanismos de censura. Si buscas una app de IA sin estos riesgos, lo mejor es elegir opciones que sean transparentes sobre dónde almacenan tu información y cómo filtran sus respuestas.
Te invitamos a mantenerte informado y evaluar siempre tanto las ventajas como los límites de cada aplicación, sobre todo si elijas usar chatbots en tu entorno profesional o privado.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.