El informe “Make America Healthy Again” (MAHA), firmado por la comisión de Robert F. Kennedy Jr., ha saltado a la fama por motivos que poco tienen que ver con su objetivo inicial: analizar las causas detrás de la caída de la esperanza de vida en Estados Unidos.
El motivo es la enorme cantidad de errores, referencias dudosas y sospechas de manipulación mediante inteligencia artificial, especialmente con herramientas como ChatGPT. Vamos a explorar los problemas de fiabilidad de este informe y entender qué implica esto en el debate sobre salud, IA y transparencia.
¿De dónde vienen los fallos detectados en el informe MAHA? La investigación de The Washington Post y del medio NOTUS ha destapado que gran parte de la documentación citada por la comisión de Robert F. Kennedy Jr. contiene errores básicos, como referencias con enlaces rotos, números de edición incorrectos y autores que, sencillamente, no existen.
No solo eso. Se ha comprobado que algunas de las investigaciones recogidas en el documento estaban interpretadas de forma incorrecta, lo que genera versiones sesgadas o directamente engañosas de los resultados reales. Todo esto ha provocado que se cuestione seriamente la fiabilidad real del informe.
Una de las cosas más llamativas del caso MAHA es el descubrimiento de fuentes ficticias. La revisión de NOTUS identificó al menos siete citas incluidas en el informe que resultaron ser totalmente inventadas, sin ningún respaldo en la literatura científica actual.
Si profundizas, verás que la investigación del Washington Post identificó 37 referencias repetidas varias veces a lo largo de las 522 citas totales del informe. ¿Qué implica esto? Básicamente, que parte del documento se basa en un reducido grupo de estudios, y además sobredimensiona su relevancia real al repetirlos constantemente. Puedes acceder al detalle de esta revisión aquí.
Un aspecto especialmente delicado son los enlaces con el identificador ‘oaicite’, presentes en varias referencias. Este término actúa como un marcador propio de OpenAI para rastrear contenido generado por herramientas como ChatGPT.
Cuando encuentras “oaicite” en una URL, tienes muchas probabilidades de que se trate de información escrita total o parcialmente por IA generativa. Esto resulta problemático, porque las IA pueden crear citas falsas, conocidas como “alucinaciones”. El propio informe MAHA parece un ejemplo perfecto de este fenómeno. En este contexto, confiar en las conclusiones extraídas se vuelve complicado.
Las herramientas de IA generativa como ChatGPT pueden inventar datos, autores o artículos completos con apariencia muy convincente. Este fallo, conocido como “alucinación”, ya ha causado problemas serios en otros ámbitos: por ejemplo, se han detectado errores similares en documentos legales redactados con ayuda de chatbots, incluso en empresas que desarrollan estos modelos.
¿El resultado? Documentos oficiales o informes relevantes con una base de datos irreales, lo que puede provocar decisiones equivocadas en temas sensibles como la salud pública.
A raíz de la polémica, los responsables del informe intentan justificar lo ocurrido. Karoline Leavitt, portavoz de prensa, ha descrito los errores como simples “problemas de formato” y defiende que el documento se basa, según ella, en “buena ciencia” que no recibe suficiente reconocimiento por parte del gobierno federal.
El informe MAHA fue actualizado, modificando referencias “oaicite” y sustituyendo fuentes inexistentes por nuevas citas. Sin embargo, Andrew Nixon, portavoz del Departamento de Salud y Servicios Humanos, señaló que las correcciones solo afectan a errores menores de formato y citas, pero que el contenido central del informe permanece intacto.
En cualquier caso, desde los organismos implicados se sigue promocionando el informe MAHA como un estudio “histórico” para comprender la epidemia de enfermedades crónicas en niños estadounidenses.
Pese a todas las críticas y dudas, Robert F. Kennedy Jr. ha sido constante en su apoyo a la expansión de la inteligencia artificial en el ámbito sanitario. En mayo, ante una comisión del Congreso, sostuvo que ya están aplicando estos sistemas para gestionar datos médicos de forma más rápida y supuestamente más segura.
¿Puede la IA realmente mejorar la salud pública o los riesgos de errores masivos son demasiado altos? Lo cierto es que, como demuestra el informe MAHA, todavía hay mucho margen de mejora en cuanto a control, verificación y fiabilidad de lo que la inteligencia artificial produce, sobre todo si va a influir en decisiones de salud que afectan a millones de personas.
Si alguna vez tienes delante un informe, artículo o documento generado con IA, ¿cómo puedes detectar rápidamente posibles problemas? Te recomendamos fijarte en las siguientes alertas:
Con todo, si detectas dos o tres de estas señales en un documento importante, es probable que la veracidad del contenido esté comprometida.
El caso del informe MAHA muestra el riesgo real de confiar ciegamente en documentos generados con inteligencia artificial, sobre todo si no se revisa a fondo la calidad de las fuentes y las interpretaciones de los datos. El fenómeno de las citas duplicadas y las fuentes inventadas no solo afecta a informes privados, sino también a documentos con difusión pública y relevancia social.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.