PerplexityComet Browserinteligencia artificial (IA)Mistral AIAgents APIGmailHumeEVI 3ClaudeAnthropicMake America Healthy Again (MAHA)Hugging FaceGeneración de ImágenesFlux.1 KontextRabbit r1

El Washington Post Destapa Fuentes Falsas y Repetidas en el Informe de Kennedy Jr.

 | mayo 30, 2025 20:01
Reporte MAHA plagado de errores con la IA

El informe “Make America Healthy Again” (MAHA), firmado por la comisión de Robert F. Kennedy Jr., ha saltado a la fama por motivos que poco tienen que ver con su objetivo inicial: analizar las causas detrás de la caída de la esperanza de vida en Estados Unidos.

El motivo es la enorme cantidad de errores, referencias dudosas y sospechas de manipulación mediante inteligencia artificial, especialmente con herramientas como ChatGPT. Vamos a explorar los problemas de fiabilidad de este informe y entender qué implica esto en el debate sobre salud, IA y transparencia.

Errores en las fuentes del informe MAHA: ¿Por qué la credibilidad está en entredicho?

¿De dónde vienen los fallos detectados en el informe MAHA? La investigación de The Washington Post y del medio NOTUS ha destapado que gran parte de la documentación citada por la comisión de Robert F. Kennedy Jr. contiene errores básicos, como referencias con enlaces rotos, números de edición incorrectos y autores que, sencillamente, no existen.

No solo eso. Se ha comprobado que algunas de las investigaciones recogidas en el documento estaban interpretadas de forma incorrecta, lo que genera versiones sesgadas o directamente engañosas de los resultados reales. Todo esto ha provocado que se cuestione seriamente la fiabilidad real del informe.

Fuentes falsas o duplicadas y referencias inventadas

Una de las cosas más llamativas del caso MAHA es el descubrimiento de fuentes ficticias. La revisión de NOTUS identificó al menos siete citas incluidas en el informe que resultaron ser totalmente inventadas, sin ningún respaldo en la literatura científica actual.

Si profundizas, verás que la investigación del Washington Post identificó 37 referencias repetidas varias veces a lo largo de las 522 citas totales del informe. ¿Qué implica esto? Básicamente, que parte del documento se basa en un reducido grupo de estudios, y además sobredimensiona su relevancia real al repetirlos constantemente. Puedes acceder al detalle de esta revisión aquí.

Marcadores “oaicite” y el papel de ChatGPT en la creación del informe

Un aspecto especialmente delicado son los enlaces con el identificador ‘oaicite’, presentes en varias referencias. Este término actúa como un marcador propio de OpenAI para rastrear contenido generado por herramientas como ChatGPT.

Cuando encuentras “oaicite” en una URL, tienes muchas probabilidades de que se trate de información escrita total o parcialmente por IA generativa. Esto resulta problemático, porque las IA pueden crear citas falsas, conocidas como “alucinaciones”. El propio informe MAHA parece un ejemplo perfecto de este fenómeno. En este contexto, confiar en las conclusiones extraídas se vuelve complicado.

¿Qué son las “alucinaciones” de la IA y cómo afectan a los informes oficiales?

Las herramientas de IA generativa como ChatGPT pueden inventar datos, autores o artículos completos con apariencia muy convincente. Este fallo, conocido como “alucinación”, ya ha causado problemas serios en otros ámbitos: por ejemplo, se han detectado errores similares en documentos legales redactados con ayuda de chatbots, incluso en empresas que desarrollan estos modelos.

¿El resultado? Documentos oficiales o informes relevantes con una base de datos irreales, lo que puede provocar decisiones equivocadas en temas sensibles como la salud pública.

Actualizaciones, explicaciones y respuestas oficiales sobre el informe MAHA

A raíz de la polémica, los responsables del informe intentan justificar lo ocurrido. Karoline Leavitt, portavoz de prensa, ha descrito los errores como simples “problemas de formato” y defiende que el documento se basa, según ella, en “buena ciencia” que no recibe suficiente reconocimiento por parte del gobierno federal.

El informe MAHA fue actualizado, modificando referencias “oaicite” y sustituyendo fuentes inexistentes por nuevas citas. Sin embargo, Andrew Nixon, portavoz del Departamento de Salud y Servicios Humanos, señaló que las correcciones solo afectan a errores menores de formato y citas, pero que el contenido central del informe permanece intacto.

En cualquier caso, desde los organismos implicados se sigue promocionando el informe MAHA como un estudio “histórico” para comprender la epidemia de enfermedades crónicas en niños estadounidenses.

La postura de Robert F. Kennedy Jr. y la “Revolución de la IA” aplicada a la salud

Pese a todas las críticas y dudas, Robert F. Kennedy Jr. ha sido constante en su apoyo a la expansión de la inteligencia artificial en el ámbito sanitario. En mayo, ante una comisión del Congreso, sostuvo que ya están aplicando estos sistemas para gestionar datos médicos de forma más rápida y supuestamente más segura.

¿Puede la IA realmente mejorar la salud pública o los riesgos de errores masivos son demasiado altos? Lo cierto es que, como demuestra el informe MAHA, todavía hay mucho margen de mejora en cuanto a control, verificación y fiabilidad de lo que la inteligencia artificial produce, sobre todo si va a influir en decisiones de salud que afectan a millones de personas.

Detectar fallos en informes creados con inteligencia artificial: señales a vigilar

Si alguna vez tienes delante un informe, artículo o documento generado con IA, ¿cómo puedes detectar rápidamente posibles problemas? Te recomendamos fijarte en las siguientes alertas:

  • Enlaces rotos o que no llevan a contenido verificable
  • Referencias con nombres de autores desconocidos o inexistentes
  • Marcadores extraños en las URLs, como “oaicite”
  • Estudios que aparecen repetidos varias veces
  • Números de edición poco realistas o incorrectos

Con todo, si detectas dos o tres de estas señales en un documento importante, es probable que la veracidad del contenido esté comprometida.

¿Cómo comprobar la fiabilidad de las fuentes generadas por IA?

  1. Abre varios enlaces y comprueba si existen realmente o si están caídos.
  2. Busca los nombres de los autores en bases de datos académicas reconocidas.
  3. Fíjate si algunos estudios se citan varias veces; si es así, revisa el texto original para valorar el peso real.
  4. Ten en cuenta la posibilidad de errores generados por IA si observas patrones sospechosos.

El caso del informe MAHA muestra el riesgo real de confiar ciegamente en documentos generados con inteligencia artificial, sobre todo si no se revisa a fondo la calidad de las fuentes y las interpretaciones de los datos. El fenómeno de las citas duplicadas y las fuentes inventadas no solo afecta a informes privados, sino también a documentos con difusión pública y relevancia social.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram