La investigadora médica Almira Osmanovic Thunström, de la Universidad de Gotemburgo, inventó una enfermedad llamada bixonimanía para poner a prueba a sistemas como ChatGPT, Gemini, Copilot y Perplexity. El objetivo era simple y delicado a la vez: medir si estos grandes modelos de lenguaje podían detectar una falsedad evidente.

La respuesta fue inquietante. En lugar de frenar, varios chatbots trataron la enfermedad como si fuera real. ChatGPT describió síntomas, Gemini la vinculó con la luz azul, Copilot la llamó una afección rara e intrigante y Perplexity hasta le atribuyó una prevalencia precisa.

Además, la pieza clave del experimento estaba a la vista. La bixonimanía apareció el 15 de marzo de 2024 en publicaciones de Medium y luego en dos preimpresiones con pistas explícitas de falsedad: autores inventados, universidades inexistentes y financiadores absurdos.

El supuesto autor era Lazljiv Izgubljenovic. Su afiliación, Asteria Horizon University en Nova City, California, tampoco existía. Incluso se citaban apoyos de entidades como la “Fundación Profesor Sideshow Bob” o la Universidad de Fellowship of the Ring. Y El engranaje siguió girando.

También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el Aprendizaje

Si un texto tiene formato científico, palabras médicas y una estructura ordenada, la IA puede asumir que hay solidez detrás. Es como una cerradura que no comprueba quién entra, sino si la llave tiene la forma correcta. Si el molde encaja, la puerta se abre.

El problema del “traje” científico

Ese es el núcleo del fallo. Los grandes modelos de lenguaje operan con patrones estadísticos, es decir, relaciones probables entre palabras, y no con validación factual, la comprobación directa de si algo ocurrió o existe. Pueden redactar con coherencia, pero no siempre distinguen entre un dato cierto y uno decorado para parecerlo.

Una enfermedad falsa, deja en evidencia a la IA , en su  incapacidad para detectar fake news,

Por eso la desinformación bien estructurada tiene una oportunidad especial. En salud, ese riesgo pesa más. Una recomendación equivocada no es solo un error de estilo: puede alterar decisiones reales sobre síntomas, tratamientos o consultas médicas.

El experimento reveló algo todavía más incómodo. Según contó Nature, los estudios ficticios llegaron a ser citados por trabajos científicos reales revisados por pares, incluido un artículo difundido en la revista Cureus.

También te puede interesar:¿La IA nos Hace Más tontos?: El MIT Revela el Impacto Oculto de la IA en el Aprendizaje
También te puede interesar:Ingenieros Fantasma en Silicon Valley: Así Ganan 250.000 Dólares Trabajando para Dos Empresas

Es decir, el error no quedó encerrado en un chatbot. Saltó al circuito académico. La automatización en la indexación y reproducción de contenidos actuó como una cinta transportadora que mueve cajas sin mirar qué hay dentro.

Expertos en desinformación como Alex Ruani advirtieron que resulta preocupante que estos sistemas no detecten señales tan obvias. Y David Sundemo señaló que el estudio es valioso, aunque controvertido, por el coste ético de introducir una mentira deliberada en el ecosistema científico.

Qué cambia para el usuario común

Una consulta de salud hecha a la IA debe ser tratada como primera orientación y no como diagnóstico

La aplicación práctica es directa. Si una IA ofrece información sanitaria, conviene tratarla como una primera orientación y no como una central de diagnóstico. La recomendación más robusta sigue siendo contrastar con fuentes médicas verificadas y profesionales reales.

Además, este caso deja una hoja de ruta. Los investigadores piden pruebas estandarizadas para medir alucinaciones, respuestas inventadas por el sistema, sensibilidad a la desinformación y sesgos. También subrayan una pieza clave menos tecnológica: mejorar la alfabetización digital y científica.

La frontera entre conocimiento y ficción puede volverse borrosa cuando el texto suena convincente. Pero justamente ahí aparece la oportunidad. Si se refuerzan los controles, la IA puede dejar de ser una luz que se enciende por reflejo y convertirse en una herramienta que también aprende a revisar el tablero.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios