Google está experimentando en uno de los terrenos más delicados de internet: la información sanitaria. Sus AI Overviews pueden ofrecer consejos sobre síntomas o posibles causas, pero el aviso de “esto puede estar mal” no aparece a primera vista, justo cuando más necesario sería.
Una investigación de The Guardian comprobó que, cuando el usuario recibe por primera vez un consejo médico en un AI Overview, no se muestra el típico disclaimer de seguridad. El problema no es solo técnico, sino perceptivo: si ves un bloque bien redactado, colocado en la parte superior de la página y con tono de respuesta definitiva, es fácil asumir que es confiable y seguir adelante sin cuestionarlo.
Aquí no hablamos de un simple fallo de experiencia de usuario. Se trata de un patrón que puede traducirse en decisiones reales: automedicación, retrasos en acudir al médico o falsa sensación de tranquilidad ante síntomas que podrían requerir atención profesional.
Google sí incluye un aviso, pero únicamente si el usuario amplía el contenido sanitario pulsando el botón “Show more”. Es decir, el mensaje de advertencia no aparece en el primer impacto, que es precisamente cuando la mayoría decide si confía en la información o si continúa investigando.
Incluso después de hacer clic, la etiqueta de seguridad aparece al final del texto ampliado, con tipografía más pequeña y un tono más claro. En la práctica, está diseñada para pasar desapercibida, especialmente cuando el usuario tiene prisa o ansiedad por lo que está leyendo.
El aviso viene a decir que la información es solo para fines informativos, que para diagnóstico o consejo médico debe consultarse a un profesional y que las respuestas de IA pueden contener errores. Sin embargo, si ese mensaje funciona como cinturón de seguridad, colocarlo al final es como obligar a conducir primero y leer después las instrucciones del airbag.
También te puede interesar:Google Retira los AI Overviews en Determinadas Búsquedas MédicasGoogle no negó que estos avisos no aparezcan en la primera presentación del consejo médico, ni que se muestren debajo del AI Overview y con menor prominencia cuando el usuario expande el contenido. Su defensa oficial se centra en que los AI Overviews “animan a buscar consejo médico profesional”.

El matiz importa. Animar no es lo mismo que advertir de forma clara y visible, especialmente en un producto diseñado para leerse en segundos. Además, la compañía sostiene que, cuando corresponde, el propio texto del resumen suele incluir frases recomendando buscar atención médica. En otras palabras, Google confía en que el modelo introduzca advertencias dentro del contenido, en lugar de establecer un aviso estándar y destacado desde el inicio.
El debate no gira únicamente en torno a la tecnología, sino también al comportamiento humano. Incluso los modelos más avanzados pueden “alucinar”, es decir, generar información incorrecta con apariencia convincente.
Pat Pataranutaporn, investigador del MIT, advierte que la ausencia de avisos visibles al presentar información médica crea peligros críticos. Una IA puede inventar datos con redacción impecable o adoptar un tono complaciente que priorice satisfacer al usuario antes que ser precisa. En temas de salud, esa complacencia puede ser especialmente peligrosa, porque una respuesta que “suena bien” no necesariamente es correcta.
A esto se suma el factor humano: el usuario puede describir mal sus síntomas, omitir contexto relevante o formular la pregunta de manera imprecisa. La combinación de un prompt imperfecto y una respuesta segura de sí misma es terreno fértil para malentendidos. En ese sentido, los disclaimers funcionan como puntos de fricción deliberados: interrumpen la confianza automática y obligan a leer con mayor cautela.
Gina Neff, profesora de IA responsable en la Queen Mary University of London, sostiene que el problema de los AI Overviews deficientes es, en cierto modo, “por diseño”. Según ella, estos sistemas están optimizados para la velocidad y la inmediatez, no necesariamente para la precisión exhaustiva, y en información sanitaria esa prioridad puede resultar peligrosa.
Si el producto está pensado para ofrecer una respuesta rápida, visible y con tono de autoridad en la parte superior de la página, el incentivo implícito no es verificar, sino cerrar la pestaña y dar el asunto por resuelto. De hecho, The Guardian ya había publicado en enero hallazgos sobre riesgos derivados de información sanitaria falsa o engañosa dentro de estos resúmenes, lo que refuerza la idea de que los avisos visibles deberían ser un estándar mínimo, no un complemento opcional.
Obligar al usuario a hacer clic para encontrar una advertencia es, en la práctica, asumir que actuará como auditor crítico, cuando en realidad puede estar cansado, preocupado o buscando una respuesta urgente.
Sonali Sharma, investigadora en Stanford AIMI, destaca un punto clave: los AI Overviews aparecen en la parte superior de la página y suelen percibirse como respuestas completas. Llegan en el momento exacto en que el usuario busca rapidez, lo que refuerza la sensación de “ya está, solucionado”.
Esa sensación reduce la probabilidad de que la persona siga desplazándose, contraste fuentes o pulse “Show more”, justo donde podría encontrar la advertencia. Además, existe un riesgo adicional: estos resúmenes pueden mezclar información parcialmente correcta con datos incorrectos. Sin conocimientos previos, distinguir qué parte es fiable y cuál no lo es se vuelve extremadamente difícil.
El riesgo no es meramente teórico. Tom Bishop, responsable de información al paciente en la ONG de cáncer de sangre Anthony Nolan, ha pedido medidas urgentes y recuerda que la desinformación en salud puede tener consecuencias graves.
Su propuesta es directa: el aviso debería ser mucho más prominente, colocarse en la parte superior y tener el mismo tamaño de letra que el resto del contenido. En otras palabras, no escondido como una nota al pie, sino visible desde el primer momento para que el usuario se detenga y considere consultar con un profesional.
Si Google aspira a que confiemos en la IA en búsquedas delicadas, debe asumir algo fundamental: cuando el tema es salud, la fricción no es un error del sistema, sino una característica necesaria. Queda por ver si la compañía aceptará que respuesta rápida y seguridad no siempre van de la mano, y si el resto del sector aprenderá la lección antes de repetir el mismo patrón.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.