A partir de datos recopilados de OpenAI, se determinó que, en Estados Unidos, hasta 40 millones de consultas médicas se hacen cada día a través de inteligencia artificial. No es una cifra anual ni mensual. Es diaria.
Y no se trata solo de curiosidad. El mismo fenómeno que llevó a millones a preguntar por la edad de un famoso o el resultado de un partido ahora empuja a otros a pedir orientación sobre salud, en parte porque el sistema sanitario no da abasto. Además, OpenAI señala que una porción importante de esas consultas viene de zonas rurales.

Ahora bien, el mecanismo tiene una cara incómoda. Existen estudios que alertan sobre el margen de error de estos modelos cuando se les consulta por temas médicos. Y, en paralelo, OpenAI ya enfrenta demandas legales vinculadas a muertes de pacientes con problemas de salud mental que habrían recibido consejos dudosos.
Sin embargo, el hábito crece por repetición y por una idea extendida: “la IA mejora todo el tiempo”. Esa confianza, reforzada por el discurso público, funciona como un interruptor psicológico. Se vuelve automático preguntar primero ahí.
En el caso de Estados Unidos, la pieza clave parece ser otra: la complejidad, opacidad y el alto costo del sistema sanitario. Para algunos ciudadanos, consultar a ChatGPT se siente más accesible que navegar turnos, coberturas y facturas.
La inteligencia artificial, en este caso un chatbot (programa que conversa), opera como una central de lectura rápida: recibe texto, lo compara con patrones aprendidos y devuelve una respuesta que suena segura. El punto es que “suena” no siempre significa “es”.
También te puede interesar:OpenAI Presenta ChatGPT Health que Proporciona Consejos Personalizados de Salud y BienestarLa analogía doméstica ayuda a verlo. Es como usar un detector de humo muy sensible: puede avisarte temprano cuando algo huele raro, pero no distingue si es una tostada quemada o un cableado que se está derritiendo. Sirve para alertar y ordenar, no para reemplazar al bombero.
Por eso, cuando una persona carga síntomas, historial médico y medicación previa, el sistema puede devolver una lista de posibilidades, preguntas útiles o señales de alarma. También puede equivocarse, mezclar causas o pasar por alto lo urgente. Y en salud, ese margen importa.
Además, el uso no se limita a “¿qué tengo?”. Muchos usuarios le piden ayuda para interpretar facturas médicas, desglosar cargos y detectar posibles cobros excesivos. Otros la usan para preparar reclamaciones ante aseguradoras cuando se deniega una cobertura.

En parte, esto explica un dato contundente: siete de cada diez consultas médicas a la IA se realizan fuera del horario habitual de atención. Es el horario de la ansiedad y del dolor. El momento en que el cuerpo molesta y la respuesta humana tarda.
La oportunidad, entonces, no es romantizar a la IA como reemplazo, sino ubicarla como herramienta complementaria. Puede ayudar a redactar preguntas para el médico, ordenar antecedentes, o entender qué significa una línea confusa en una factura.
Pero el interruptor de seguridad debe estar claro: cualquier decisión crítica requiere verificación profesional. El “cableado” de la salud no admite atajos cuando hay riesgo real.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesSi el sistema sanitario es una casa saturada de timbres, la IA hoy actúa como un portero que toma notas a toda hora. Puede aliviar la espera. Pero la llave final, todavía, la sigue teniendo la medicina humana.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.