¿Le preguntarías a un chatbot qué hacer si un familiar recibe un diagnóstico de cáncer? La escena ya no parece extraña: la duda aparece en el celular, en la cocina o en una sala de espera. Y ahí, en segundos, una respuesta puede sonar segura aunque apunte en la dirección equivocada.

Eso es lo que revela un estudio publicado en BMJ Open y firmado por Nick Tiller, del Lundquist Institute. La investigación analizó las versiones gratuitas de ChatGPT, Gemini, Grok y DeepSeek con preguntas reales sobre cáncer, vacunas, nutrición, células madre y deporte.

El hallazgo central inquieta por su tamaño: casi la mitad de las respuestas fueron cuestionables y una de cada cinco contenía desinformación clara. En algunos casos, los chatbots llegaron a recomendar reemplazar la quimioterapia por acupuntura, infusiones o dietas milagro.

Tiller sostiene que no se trata de trampas de laboratorio. Según explica, las preguntas reflejan cómo consulta la gente en la práctica real, con miedo, urgencia y la esperanza de encontrar una pieza clave que ordene el problema.

También te puede interesar:El MIT Detecta un Problema en el Uso de la IA que Podría Afectar a la Capacidad Cognitiva
Los chatbots acertaron en torno al 75% en detección de Cáncer

El mecanismo detrás de este fallo no siempre es visible. Un chatbot no “piensa” como un médico: funciona más bien como una central que acomoda palabras según patrones probables. Si el cableado interno mezcla evidencia científica con contenido dudoso, la salida puede parecer convincente aunque esté mal armada.

La analogía más simple es la de un tablero eléctrico en una casa. Si el interruptor que separa una habitación de otra está defectuoso, la luz puede encender donde no corresponde. Aquí pasa algo parecido: la IA no siempre distingue entre un tratamiento validado y una terapia sin pruebas, y los presenta como si tuvieran el mismo valor.

A ese fenómeno los investigadores lo llaman “falso equilibrio” (igualar opciones que no pesan lo mismo). En salud, ese engranaje es especialmente peligroso. Un paciente puede leer “quimioterapia” y “acupuntura” en la misma respuesta y sentir que ambas son rutas médicas comparables.

Una falla estructural, no un tropiezo aislado

Los números del estudio apuntan a un problema más amplio. Grok mostró el peor rendimiento, con un 58% de respuestas dudosas. Gemini obtuvo el mejor resultado del grupo, pero aun así llegó al 40%. La distancia entre ambos es pequeña, y eso sugiere una falla estructural más que un error de una sola empresa.

También te puede interesar:El MIT Detecta un Problema en el Uso de la IA que Podría Afectar a la Capacidad Cognitiva
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

Incluso en las áreas donde rindieron mejor, como cáncer y vacunas, los chatbots acertaron en torno al 75%. Dicho de otro modo, fallaron una de cada cuatro veces. En temas de salud, ese margen no funciona como un pequeño desperfecto: se parece más a un freno que responde tarde.

Con el cáncer, los chatbots recomiendan terapias alternativas peligrosas en lugar de medicina real

Además, el rendimiento cae en nutrición, células madre y deporte, donde abundan promesas sin base clínica. Allí el sistema parece más permeable a recetas vistosas, fórmulas rápidas y atajos que suenan razonables, pero no pasan el filtro de la evidencia.

Otro estudio de Stanford, publicado en marzo de 2026, detectó una tendencia que complica más el cuadro: los chatbots validan al usuario un 49% más que un interlocutor humano. Es decir, tienden a confirmar antes que a corregir. Si una persona ya sospecha que “lo natural” es mejor, la máquina puede reforzar esa idea en vez de frenarla.

Qué cambia para quien consulta sobre salud

La oportunidad de uso es enorme, pero también el riesgo. Una encuesta de Gallup indica que uno de cada cuatro adultos en Estados Unidos ya consulta a la IA por temas de salud. Y OpenAI lanzó ChatGPT Health, una herramienta que permite subir historiales clínicos, justo cuando estos modelos todavía no separan bien ciencia y pseudociencia.

Por eso, la aplicación práctica hoy es clara: un chatbot puede servir para ordenar preguntas, traducir términos o preparar una consulta, pero no para reemplazar el criterio clínico. Menos aún en cáncer, vacunas o terapias complejas.

Mientras Europa ya clasifica la IA sanitaria como de alto riesgo bajo la AI Act, en Estados Unidos predomina la autorregulación. El problema es global, porque la pantalla es la misma en cualquier país.

La clave, por ahora, no está en apagar la herramienta, sino en usarla como lo que todavía es: un asistente útil para buscar contexto, no el médico que decide qué luz encender cuando la salud está en juego.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios