Un estudio coordinado por la Unión Europea de Radiodifusión y dirigido por la BBC ha puesto el foco en cómo te informas cada día. La investigación se realizó con 22 medios públicos de 18 países y 14 idiomas. Analizó más de 300.000 respuestas de ChatGPT, Copilot, Gemini y Perplexity para medir cuatro cosas: precisión, citas a fuentes originales, contexto y separación entre hechos y opiniones.

El resultado central preocupa por su tamaño: el 45% de las respuestas de estos asistentes de IA presentaba al menos un problema de calado. La trampa está en cómo fallan y dónde se nota más, porque no solo es un descuido ocasional y va más allá de una simple errata.
El error más repetido fue la atribución de fuentes. En el 31% de las respuestas, los asistentes de IA ofrecieron referencias nulas, engañosas o directamente incorrectas. También detectaron un 20% de datos imprecisos, obsoletos o inventados por el propio sistema, algo que conocerás como “alucinaciones”. Con todo, el patrón sugiere un problema sistémico más que un fallo de un modelo concreto.
Cuando miras plataforma por plataforma, aparece la mayor brecha. Gemini registró una tasa de error del 76%, más del doble que el resto. El riesgo no es aislado. Google está integrando funciones basadas en Gemini, como el Modo IA o los resúmenes en Search, y eso coloca estos resultados en el centro del consumo diario de noticias.
Los autores describen un patrón que cruza fronteras e idiomas. En nuestra revisión de metodología, el trabajo de la UER-BBC comparó salidas de los principales asistentes de IA y las cotejó con fuentes originales en 14 idiomas. El objetivo fue separar hechos verificables de opiniones y medir contexto y citas. “Si la gente deja de creer en la información, la participación democrática se enfría”, dijo Jean Philip De Tender (UER).
En paralelo, el Informe de Noticias Digitales 2025 del Instituto Reuters sitúa estas herramientas en tu rutina informativa. Ya un 7% de usuarios de noticias online recurre a asistentes de IA, y entre menores de 25 años la cifra sube al 15%. Hay entusiasmo por funciones concretas porque sientes que te ahorran tiempo y no te pierdes nada importante.
También te puede interesar:Función ‘Ask Gemini’ en Google Meet: Resume Todo lo que ha Pasado en la VideollamadaLos casos de uso mejor valorados son claros: resúmenes automáticos (27%), traducción de noticias (24%), recomendaciones de artículos (21%) y chatbots para consultas (18%). El público se muestra escéptico con la aplicación de IA en periodismo y confía más cuando hay supervisión humana. Esa mezcla de atracción y cautela explica por qué debes revisar qué te ofrece cada herramienta.
¿Por qué importa tanto para ti? Porque, aunque la IA abarata la producción y acelera la actualización, también puede hacer la información menos transparente, precisa y fiable. Y si este sesgo es estructural, la desconfianza se contagia rápido y erosiona el espacio público donde te informas y participas. El estudio advierte que estas carencias son sistémicas y persistentes entre idiomas y países.
La combinación de adopción creciente y errores repetidos crea un escenario incómodo. Si Google amplía el despliegue del Modo IA en Search, vas a ver más resúmenes generados por modelos. Y si esos resúmenes no explican de dónde sale cada dato, el riesgo de tomar decisiones con información débil aumenta, desde una compra hasta tu voto.
Si usas asistentes de IA a diario, estas tres comprobaciones te protegen de citas falsas y números reciclados fuera de contexto. No pierdas de vista las señales: indicaciones claras de contenido generado con IA, enlaces verificables a documentos o notas de prensa y marcas de tiempo recientes. Si alguna falta, asume riesgo elevado y contrasta.
¿Qué mirar en los próximos meses? Si ves más resúmenes automáticos en Google con énfasis en Gemini, prepárate para revisar el rastro de fuentes con más cuidado. Si los medios públicos y privados intensifican la etiqueta “contenido generado con IA”, la transparencia mejorará. Si nuevas pruebas independientes replican estos porcentajes en 2025, el debate regulatorio ganará urgencia.
La fotografía que deja el informe es nítida: te beneficias del ahorro de tiempo y de la traducción instantánea, pero pagas el coste de la opacidad. Para informarte mejor, apóyate en asistentes de IA como complemento, exige fuentes visibles y prioriza piezas con edición humana. Solo así vas a poder aprovechar lo útil sin caer en errores que, según la UER-BBC, afectan ya a casi la mitad de las respuestas analizadas.
También te puede interesar:Sin Fotógrafo ni Estudio: Crea Fotos Profesionales Gratis, con Google Gemini
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.