El 18 de mayo, los lectores del Chicago Sun-Times se encontraron con una guía veraniega plagada de sugerencias para disfrutar el verano, desde actividades hasta libros ideales para la temporada. Lo que nadie imaginaba es que varias de esas recomendaciones de libros y expertos venían con “truco”: títulos inventados y especialistas que solo viven en la imaginación o, peor aún, en la inteligencia artificial.
Si tú mismo has buscado nuevas lecturas confiando en medios reputados, entenderás la molestia que causa descubrir que parte de esa información es falsa.
¿Qué ha pasado con la fiabilidad de los medios cuando la inteligencia artificial se cuela sin control en su redacción? En este artículo te explicamos todos los detalles del caso, desde ejemplos exactos de títulos y autores afectados, hasta cómo estas prácticas han puesto patas arriba la confianza de los lectores en Estados Unidos y otros países.
¿Te imaginas escoger tu próxima lectura recomendada en prensa y que el libro, o incluso el autor, en realidad no existan? Eso es justo lo que sucedió a cientos de lectores del Chicago Sun-Times. En su entrega del 18 de mayo, incluyeron decenas de páginas con sugerencias de actividades estivales y propuestas literarias para el verano, pero algunas de esas listas escondían trampas creadas por inteligencia artificial.
En concreto, algunos títulos reconocidos entre las sugerencias no se pueden localizar en ninguna editorial, biblioteca ni web, aunque aparecen firmados por escritores reales. Por ejemplo, “Nightshade Market” figura como obra de la novelista Min Jin Lee, pero nunca lo ha publicado.
Lo mismo ocurre con la mención a Rebecca Makkai y el supuesto libro “Boiling Point”, presentado como el drama de una científica climática y su hija adolescente, pese a que nunca ha salido de la imaginación de quien lo ideó.
La gravedad de la situación no termina ahí. Algunos artículos en esta misma guía para el verano no solo inventan libros, sino que también citan expertos y fuentes imposibles de verificar. ¿Vas a confiar en un consejo sobre ocio, actividades lúdicas o gastronomía cuando incluso las fuentes no existen?
Uno de los textos, firmado por Marco Buscaglia, explora la cultura de la hamaca en Estados Unidos. Ahí aparecen citas de supuestos expertos reconocidos y referencias a publicaciones como Outside Magazine, con menciones a autores como Brianna Madia. Pero al buscar dicha publicación o el contenido concreto citado, simplemente no existe.
Ni rastro de ese artículo, ni del análisis de mercado atribuido a Eagles Nest Outfitters, ni de la “Dra. Jennifer Campos, profesora de estudios de ocio en la Universidad de Colorado”, nombre completamente inventado.
Ante la oleada de críticas y dudas sobre su fiabilidad, el propio Chicago Sun-Times aclaró públicamente a través de Bluesky que el material no era fruto del equipo editorial ni había pasado por los cauces habituales de aprobación. El contenido, aseguraban, estaba bajo investigación y prometieron informar mejor a los lectores.
Por su parte, Victor Lim, director sénior de desarrollo de audiencia, fue muy claro: ofrecer información inexacta es inadmisible. No especificaron si esa sección especial respondía a intereses publicitarios de terceros o era una pieza más de la redacción, aunque la portada lucía logo y branding del periódico.
Mientras tanto, la autoría de los textos complicó aún más el asunto. Algunos artículos de la guía carecen de firma, y en otros aparece el nombre de Marco Buscaglia. Este periodista ha admitido que usa inteligencia artificial para obtener información de fondo, pero normalmente revisa o contrasta lo que incluye.
En este caso, reconoce abiertamente no haber comprobado datos ni autenticidad de las fuentes, asumiendo la responsabilidad y declarando sentirse gravemente avergonzado.
No solo los libros inventados generan confusión, también los “expertos” creados de la nada por herramientas automáticas. ¿Puedes fiarte de lo que lees cuando los especialistas citados no existen?
En otro reportaje sobre tendencias alimentarias estivales, la historia se repite: aparece entre los consultados la “Dra. Catherine Furst, antropóloga alimentaria de la Universidad de Cornell”.
Ninguna búsqueda la localiza ni como investigadora ni como docente. Incluso atribuyen una cita a la celebrity Padma Lakshmi que no figura en ningún medio ni declaración pública comprobable. Son ejemplos claros de cómo la IA puede combinar información real con datos completamente falsos.
El perjuicio sobre la confianza del lector es inmediato: mezclan material verificado por periodistas reales con invenciones automáticas imposibles de seguir o desmentir por un usuario medio.
Estos ejemplos muestran cómo los errores por falta de revisión pueden pasar desapercibidos en el control de calidad de las editoriales de prensa.
Las redacciones buscan agilizar procesos, cubrir temáticas calientes y aportar más contenido. En ese contexto, herramientas de inteligencia artificial generativa como ChatGPT o equivalentes suelen emplearse como ayuda para encontrar datos, ejemplos y hasta redactar textos base.
Marco Buscaglia ha reconocido que recurre a la IA como fuente secundaria: obtiene información de fondo y luego la integra en artículos reales. El problema surge cuando ese material no se revisa a fondo y se publican, sin querer o por pura prisa, citas, títulos y supuestos estudios o expertos que no existen.
En la era actual, este tipo de errores se vuelve más fácil al confiar en sistemas automáticos que no siempre diferencian el dato real de la ficción. De ahí que la responsabilidad de comprobar lo que se publica recaiga siempre en la persona que firma el artículo.
Lamentablemente, el caso del Chicago Sun-Times no es el único que debes tener en cuenta. En los últimos meses, otros grandes medios estadounidenses como Gannett y Sports Illustrated han vivido situaciones similares.
Han llegado a publicar contenido generado parcialmente por inteligencia artificial, sin distinguir claramente si es producto de periodistas humanos, agencias de marketing externas o herramientas automáticas.
En muchas ocasiones la propia redacción culpa a firmas externas de marketing cuando aparece material dudoso. Sin embargo, la realidad es que la mezcla de artículos periodísticos con textos originados por IA termina dañando la imagen global del medio e introduciendo dudas en los lectores. Este ambiente de “una especie de 'ping' constante entre lo real y lo ficticio” convierte cada noticia en una posible trampa.
Toda esta tendencia causa un efecto directo: dificulta mucho saber si lo que estás leyendo viene de una fuente periodística confiable o de un sistema automático sin controles internos suficientes.
Con todo, si quieres evitar caer en recomendaciones falsas o fuentes inexistentes, conviene que adoptes algunos hábitos de lectura crítica. Aunque no siempre es fácil, hay pistas que pueden ayudarte:
En cualquier caso, la palabra clave es «comprobar». No te quedes solo con lo que dice un medio, aunque sea de referencia. La proliferación de IA en la prensa pone a prueba la atención de todos: desde el propio periodista hasta el lector más curioso.
La infiltración de contenido falso generado por inteligencia artificial, como se ha visto en el Chicago Sun-Times, Gannett y Sports Illustrated, demuestra el impacto directo en la confianza en los medios y la dificultad creciente para distinguir información fiable y verificada.
Siempre vas a poder reforzar tus hábitos de verificación y exigir claridad a quienes informan, así descubrirás cuándo una recomendación o cita podrían ser tan inventadas como los libros que nunca se han llegado a escribir.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.