ChatGPTAardvarkGooglemicrosoftAgent HQSora 2WeavyFigmacanvaUniversal Music GroupUdioIBMGeoffrey HintonAgentes IAClaude

La IA quiere informar… pero el 45% de las noticias que genera son un completo desastre

 | octubre 30, 2025 20:43

Un estudio coordinado por la Unión Europea de Radiodifusión y dirigido por la BBC ha puesto el foco en cómo te informas cada día. La investigación se realizó con 22 medios públicos de 18 países y 14 idiomas. Analizó más de 300.000 respuestas de ChatGPT, Copilot, Gemini y Perplexity para medir cuatro cosas: precisión, citas a fuentes originales, contexto y separación entre hechos y opiniones.

¿El Fin del Smartphone? IA Acelera la Llegada del Próximo Gran Dispositivo Personal

El resultado central preocupa por su tamaño: el 45% de las respuestas de estos asistentes de IA presentaba al menos un problema de calado. La trampa está en cómo fallan y dónde se nota más, porque no solo es un descuido ocasional y va más allá de una simple errata.

El error más repetido fue la atribución de fuentes. En el 31% de las respuestas, los asistentes de IA ofrecieron referencias nulas, engañosas o directamente incorrectas. También detectaron un 20% de datos imprecisos, obsoletos o inventados por el propio sistema, algo que conocerás como “alucinaciones”. Con todo, el patrón sugiere un problema sistémico más que un fallo de un modelo concreto.

Cuando miras plataforma por plataforma, aparece la mayor brecha. Gemini registró una tasa de error del 76%, más del doble que el resto. El riesgo no es aislado. Google está integrando funciones basadas en Gemini, como el Modo IA o los resúmenes en Search, y eso coloca estos resultados en el centro del consumo diario de noticias.

Los autores describen un patrón que cruza fronteras e idiomas. En nuestra revisión de metodología, el trabajo de la UER-BBC comparó salidas de los principales asistentes de IA y las cotejó con fuentes originales en 14 idiomas. El objetivo fue separar hechos verificables de opiniones y medir contexto y citas. “Si la gente deja de creer en la información, la participación democrática se enfría”, dijo Jean Philip De Tender (UER).

En paralelo, el Informe de Noticias Digitales 2025 del Instituto Reuters sitúa estas herramientas en tu rutina informativa. Ya un 7% de usuarios de noticias online recurre a asistentes de IA, y entre menores de 25 años la cifra sube al 15%. Hay entusiasmo por funciones concretas porque sientes que te ahorran tiempo y no te pierdes nada importante.

También te puede interesar:Función ‘Ask Gemini’ en Google Meet: Resume Todo lo que ha Pasado en la Videollamada

Los casos de uso mejor valorados son claros: resúmenes automáticos (27%), traducción de noticias (24%), recomendaciones de artículos (21%) y chatbots para consultas (18%). El público se muestra escéptico con la aplicación de IA en periodismo y confía más cuando hay supervisión humana. Esa mezcla de atracción y cautela explica por qué debes revisar qué te ofrece cada herramienta.

Los asistentes de IA afectan a la precisión de las noticias en 2025

¿Por qué importa tanto para ti? Porque, aunque la IA abarata la producción y acelera la actualización, también puede hacer la información menos transparente, precisa y fiable. Y si este sesgo es estructural, la desconfianza se contagia rápido y erosiona el espacio público donde te informas y participas. El estudio advierte que estas carencias son sistémicas y persistentes entre idiomas y países.

La combinación de adopción creciente y errores repetidos crea un escenario incómodo. Si Google amplía el despliegue del Modo IA en Search, vas a ver más resúmenes generados por modelos. Y si esos resúmenes no explican de dónde sale cada dato, el riesgo de tomar decisiones con información débil aumenta, desde una compra hasta tu voto.

Qué puedes hacer para comprobar la información en asistentes de IA

  1. Pide el enlace a la fuente original y ábrelo antes de compartir.
  2. Compara el dato con otro medio reconocido en tu país.
  3. Fíjate si distingue hechos de opiniones en el texto.

Si usas asistentes de IA a diario, estas tres comprobaciones te protegen de citas falsas y números reciclados fuera de contexto. No pierdas de vista las señales: indicaciones claras de contenido generado con IA, enlaces verificables a documentos o notas de prensa y marcas de tiempo recientes. Si alguna falta, asume riesgo elevado y contrasta.

¿Qué mirar en los próximos meses? Si ves más resúmenes automáticos en Google con énfasis en Gemini, prepárate para revisar el rastro de fuentes con más cuidado. Si los medios públicos y privados intensifican la etiqueta “contenido generado con IA”, la transparencia mejorará. Si nuevas pruebas independientes replican estos porcentajes en 2025, el debate regulatorio ganará urgencia.

La fotografía que deja el informe es nítida: te beneficias del ahorro de tiempo y de la traducción instantánea, pero pagas el coste de la opacidad. Para informarte mejor, apóyate en asistentes de IA como complemento, exige fuentes visibles y prioriza piezas con edición humana. Solo así vas a poder aprovechar lo útil sin caer en errores que, según la UER-BBC, afectan ya a casi la mitad de las respuestas analizadas.

También te puede interesar:Sin Fotógrafo ni Estudio: Crea Fotos Profesionales Gratis, con Google Gemini

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram