El informe “Make America Healthy Again” (MAHA), firmado por la comisión de Robert F. Kennedy Jr., ha saltado a la fama por motivos que poco tienen que ver con su objetivo inicial: analizar las causas detrás de la caída de la esperanza de vida en Estados Unidos.
El motivo es la enorme cantidad de errores, referencias dudosas y sospechas de manipulación mediante inteligencia artificial, especialmente con herramientas como ChatGPT. Vamos a explorar los problemas de fiabilidad de este informe y entender qué implica esto en el debate sobre salud, IA y transparencia.
Errores en las fuentes del informe MAHA: ¿Por qué la credibilidad está en entredicho?
¿De dónde vienen los fallos detectados en el informe MAHA? La investigación de The Washington Post y del medio NOTUS ha destapado que gran parte de la documentación citada por la comisión de Robert F. Kennedy Jr. contiene errores básicos, como referencias con enlaces rotos, números de edición incorrectos y autores que, sencillamente, no existen.
No solo eso. Se ha comprobado que algunas de las investigaciones recogidas en el documento estaban interpretadas de forma incorrecta, lo que genera versiones sesgadas o directamente engañosas de los resultados reales. Todo esto ha provocado que se cuestione seriamente la fiabilidad real del informe.
Fuentes falsas o duplicadas y referencias inventadas
Una de las cosas más llamativas del caso MAHA es el descubrimiento de fuentes ficticias. La revisión de NOTUS identificó al menos siete citas incluidas en el informe que resultaron ser totalmente inventadas, sin ningún respaldo en la literatura científica actual.
Si profundizas, verás que la investigación del Washington Post identificó 37 referencias repetidas varias veces a lo largo de las 522 citas totales del informe. ¿Qué implica esto? Básicamente, que parte del documento se basa en un reducido grupo de estudios, y además sobredimensiona su relevancia real al repetirlos constantemente. Puedes acceder al detalle de esta revisión aquí.
Marcadores “oaicite” y el papel de ChatGPT en la creación del informe
Un aspecto especialmente delicado son los enlaces con el identificador ‘oaicite’, presentes en varias referencias. Este término actúa como un marcador propio de OpenAI para rastrear contenido generado por herramientas como ChatGPT.
Cuando encuentras “oaicite” en una URL, tienes muchas probabilidades de que se trate de información escrita total o parcialmente por IA generativa. Esto resulta problemático, porque las IA pueden crear citas falsas, conocidas como “alucinaciones”. El propio informe MAHA parece un ejemplo perfecto de este fenómeno. En este contexto, confiar en las conclusiones extraídas se vuelve complicado.
¿Qué son las “alucinaciones” de la IA y cómo afectan a los informes oficiales?
Las herramientas de IA generativa como ChatGPT pueden inventar datos, autores o artículos completos con apariencia muy convincente. Este fallo, conocido como “alucinación”, ya ha causado problemas serios en otros ámbitos: por ejemplo, se han detectado errores similares en documentos legales redactados con ayuda de chatbots, incluso en empresas que desarrollan estos modelos.
¿El resultado? Documentos oficiales o informes relevantes con una base de datos irreales, lo que puede provocar decisiones equivocadas en temas sensibles como la salud pública.
Actualizaciones, explicaciones y respuestas oficiales sobre el informe MAHA
A raíz de la polémica, los responsables del informe intentan justificar lo ocurrido. Karoline Leavitt, portavoz de prensa, ha descrito los errores como simples “problemas de formato” y defiende que el documento se basa, según ella, en “buena ciencia” que no recibe suficiente reconocimiento por parte del gobierno federal.
El informe MAHA fue actualizado, modificando referencias “oaicite” y sustituyendo fuentes inexistentes por nuevas citas. Sin embargo, Andrew Nixon, portavoz del Departamento de Salud y Servicios Humanos, señaló que las correcciones solo afectan a errores menores de formato y citas, pero que el contenido central del informe permanece intacto.
En cualquier caso, desde los organismos implicados se sigue promocionando el informe MAHA como un estudio “histórico” para comprender la epidemia de enfermedades crónicas en niños estadounidenses.
La postura de Robert F. Kennedy Jr. y la “Revolución de la IA” aplicada a la salud
Pese a todas las críticas y dudas, Robert F. Kennedy Jr. ha sido constante en su apoyo a la expansión de la inteligencia artificial en el ámbito sanitario. En mayo, ante una comisión del Congreso, sostuvo que ya están aplicando estos sistemas para gestionar datos médicos de forma más rápida y supuestamente más segura.
¿Puede la IA realmente mejorar la salud pública o los riesgos de errores masivos son demasiado altos? Lo cierto es que, como demuestra el informe MAHA, todavía hay mucho margen de mejora en cuanto a control, verificación y fiabilidad de lo que la inteligencia artificial produce, sobre todo si va a influir en decisiones de salud que afectan a millones de personas.
Detectar fallos en informes creados con inteligencia artificial: señales a vigilar
Si alguna vez tienes delante un informe, artículo o documento generado con IA, ¿cómo puedes detectar rápidamente posibles problemas? Te recomendamos fijarte en las siguientes alertas:
- Enlaces rotos o que no llevan a contenido verificable
- Referencias con nombres de autores desconocidos o inexistentes
- Marcadores extraños en las URLs, como “oaicite”
- Estudios que aparecen repetidos varias veces
- Números de edición poco realistas o incorrectos
Con todo, si detectas dos o tres de estas señales en un documento importante, es probable que la veracidad del contenido esté comprometida.
¿Cómo comprobar la fiabilidad de las fuentes generadas por IA?
- Abre varios enlaces y comprueba si existen realmente o si están caídos.
- Busca los nombres de los autores en bases de datos académicas reconocidas.
- Fíjate si algunos estudios se citan varias veces; si es así, revisa el texto original para valorar el peso real.
- Ten en cuenta la posibilidad de errores generados por IA si observas patrones sospechosos.
El caso del informe MAHA muestra el riesgo real de confiar ciegamente en documentos generados con inteligencia artificial, sobre todo si no se revisa a fondo la calidad de las fuentes y las interpretaciones de los datos. El fenómeno de las citas duplicadas y las fuentes inventadas no solo afecta a informes privados, sino también a documentos con difusión pública y relevancia social.

Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.






