Si haces una pregunta a un chatbot sobre la guerra en Ucrania, podrías recibir más que contexto: también propaganda rusa. Un nuevo análisis del Instituto de Diálogo Estratégico (ISD) alerta de que ChatGPT, Gemini, DeepSeek y Grok replican narrativas del Kremlin al citar medios sancionados. Importa porque millones en la UE usan estos servicios a diario, y falta un detalle clave que condiciona las respuestas.
El ISD analizó 300 preguntas en julio, en inglés, español, francés, alemán e italiano, desde cuentas individuales. También comprobó en octubre que el patrón seguía. ¿Qué encontró? Casi una quinta parte de las respuestas citaba medios estatales rusos o sitios ligados a inteligencia, incluso en consultas sensibles como conversaciones de paz o crímenes de guerra.

Los investigadores vieron que la propaganda rusa se filtra mejor en “vacíos de datos”: búsquedas en tiempo real con pocos resultados legítimos. En ese terreno, los chatbots enlazaron a Sputnik Globe, RT, EADaily, Strategic Culture Foundation o R-FBI, junto a redes y figuras afines al Kremlin. Un estudio previo ya había detectado que 10 chatbots populares imitaban narrativas rusas.
La frecuencia no es uniforme. El ISD halló un “sesgo de confirmación” en las respuestas: cuanto más tendenciosa o maliciosa era la consulta, más probable era encontrar propaganda rusa. En preguntas maliciosas, apareció una de cada cuatro veces; en tendenciosas, el 18%; y en neutrales, algo por encima del 10%.
Entre los cuatro, ChatGPT fue el más influenciable por preguntas tendenciosas y el que más citó fuentes rusas. Grok solía enlazar a cuentas en redes que difundían narrativas del Kremlin, y DeepSeek generó gran volumen de contenido atribuido al Estado ruso. Gemini mostró advertencias de seguridad con más frecuencia y fue el que mejor contuvo la exposición, según los investigadores.
Esto importa por un motivo práctico: cuando un modelo repite propaganda rusa, le da visibilidad y apariencia de autoridad. Europa ha sancionado al menos 27 medios rusos desde la invasión a gran escala, y la Unión Europea recuerda que los proveedores deben bloquear el acceso web a esos dominios, incluidos subdominios y nuevas variantes, y que las autoridades nacionales aplican las medidas.
También te puede interesar:OpenAI Presenta un Agente para Investigación Profunda
Las empresas reaccionan a ritmos distintos. OpenAI afirma que ya aplica medidas y que está mejorando su modelo y su plataforma. Su portavoz, Kate Waters, apunta que el informe se refiere a respuestas que vienen de búsquedas web, señaladas como tales, y no a texto generado por el modelo base fuera de esa función. Google y DeepSeek no respondieron, y xAI envió un escueto correo: “El legado de los medios miente”. La embajada rusa en Londres negó conocer casos concretos y se declaró contraria a cualquier censura política.
Desde la invasión, Moscú ha recortado el flujo libre de información, ha vetado medios independientes y ha potenciado tecnologías estatales. A la vez, ha intensificado sus redes de desinformación con IA para crear imágenes, vídeos y webs falsas. Este año, informes apuntan a una red llamada “Pravda” que inunda internet para “envenenar” modelos. En esta investigación solo dos enlaces se atribuyeron directamente a la red Pravda.
La trampa está en el tiempo real. Si preguntas por temas con poca información fiable, los bots tiran de la web y, en esos huecos, la propaganda rusa coloca dominios nuevos y contenidos que parecen actuales. Según el ISD, los “vacíos de datos” son el vector más eficaz. Aquí el etiquetado de resultados y los filtros dinámicos marcan la diferencia.

También pesa la experiencia de uso. Si el sistema intenta complacer una hipótesis maliciosa, el sesgo de confirmación se amplifica. Por eso el ISD ve crucial contextualizar la fuente: explicar si está sancionada en la UE, por qué y con qué conflictos conocidos, en vez de limitarse a eliminar enlaces sin avisar. Así reduces que la propaganda rusa se mezcle con fuentes legítimas sin que tú lo notes.
El informe sugiere un mínimo común entre empresas: excluir como fuente estable a medios de estados con desinformación deliberada y, a la vez, contar más cosas al usuario. En la práctica, eso significa:
Este enfoque no evita todo, pero reduce que la propaganda rusa gane autoridad por repetición. Falta una decisión compleja: cómo deben actuar los chatbots ante fuentes sancionadas por la UE sin caer en sobrebloqueo ni en indiferencia frente a campañas coordinadas.
También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el AprendizajeEl marco regulatorio aprieta. Con 120,4 millones de usuarios mensuales medios en la UE en ese semestre, ChatGPT podría superar el umbral de 45 millones para ser designado VLOP según la normativa sobre Plataformas Online Muy Grandes. Ese estatus exige evaluar riesgos sistémicos, mitigar contenidos ilegales y medir impacto en derechos fundamentales, seguridad y bienestar público. Veremos si esto acelera cambios visibles en 2025.
Los chatbots ya son puerta de entrada a la actualidad y, sin controles finos, la propaganda rusa encuentra hueco. Con filtros dinámicos, etiquetas visibles y contexto real sobre las fuentes, tú vas a poder entender mejor qué estás leyendo y por qué aparece, incluso cuando el buscador no encuentra demasiadas respuestas legítimas.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.