Anthropic acaba de sacar músculo con Claude for Healthcare, una oferta de IA pensada no solo para pacientes, sino también para hospitales y aseguradoras. Y sí, llega “casualmente” poco después del anuncio de ChatGPT Health por parte de OpenAI.
Esto ya no va de tener un chatbot amable que responda dudas generales. El objetivo es mucho más ambicioso: meterse de lleno en el barro del sistema sanitario, con sus datos fragmentados, su burocracia infinita, las autorizaciones previas y unos flujos de trabajo que hoy están quemando a los profesionales clínicos.

Claude for Healthcare promete sincronizar datos de salud procedentes de móviles, smartwatches y otras plataformas, permitiendo que la IA lea tu “historial de señales” —pasos, sueño, frecuencia cardíaca y similares— sin que el usuario tenga que copiar y pegar información de un sitio a otro.
La pregunta incómoda aparece de inmediato: la privacidad. En este punto, Anthropic se alinea con OpenAI, asegurando que los datos de salud no se utilizarán para entrenar sus modelos.
Esa promesa es el mínimo indispensable para que cualquier actor serio del sector se plantee su adopción. Al mismo tiempo, es donde nace la desconfianza: si no se usan para entrenamiento, ¿para qué se usan exactamente?, ¿cuánto tiempo se retienen?, ¿qué controles y auditorías existen sobre ese uso?
La narrativa de Anthropic es clara. Claude for Healthcare no pretende ser simplemente “otro chatbot médico”, sino una solución más amplia que ataque varias piezas del ecosistema sanitario.
La propuesta está orientada a proveedores —hospitales y clínicas—, pagadores —aseguradoras— y pacientes. No se limita a la clásica experiencia de “me duele X, ¿qué hago?”, sino que apunta a procesos donde el verdadero cuello de botella es administrativo, documental y operativo.
Introducir un LLM en sanidad, sin embargo, activa siempre la misma alarma: las alucinaciones. Un modelo que se inventa una cita, un diagnóstico o una pauta de tratamiento puede convertirse en un problema grave si se usa mal, especialmente cuando se percibe como una fuente de “consejo médico”.
Por eso el sector está dividido. Para algunos, estos sistemas son copilotos útiles; para otros, un riesgo clínico y reputacional enorme. No es paranoia, sino experiencia acumulada con cómo fallan estos modelos cuando salen de su zona de confort.
Donde Anthropic intenta marcar la diferencia es en lo que denomina agent skills, es decir, la capacidad de Claude para actuar como un agente que busca información, cruza datos, sigue flujos definidos y produce resultados accionables.
El anuncio pone especial énfasis en los connectors, integraciones que permiten a la IA acceder directamente a plataformas y bases de datos relevantes para acelerar tareas como investigación, tramitación administrativa o generación de informes.
Entre ellas destaca el acceso a la CMS Coverage Database, la base de datos de coberturas de los Centers for Medicare and Medicaid Services, clave para entender qué se cubre, en qué condiciones y cómo justificarlo.

También se incluyen conectores a ICD-10 (International Classification of Diseases, 10th Revision), el sistema de codificación diagnóstica que condiciona desde la facturación hasta las estadísticas clínicas, y al National Provider Identifier Standard, que permite identificar de forma estandarizada a los proveedores sanitarios dentro del circuito asistencial y administrativo.
Además, Claude puede conectarse a PubMed, facilitando el acceso a literatura biomédica para revisiones rápidas y la elaboración de informes con referencias. Todo ello con un matiz importante: leer papers no equivale a emitir consejo clínico.
Anthropic pone el foco en un punto donde casi todo el sector sanitario asiente sin dudar: la prior authorization review, o revisión de autorizaciones previas.
Este proceso obliga al médico a enviar información adicional a la aseguradora para confirmar si un tratamiento o fármaco será cubierto. En la práctica, es medicina convertida en formularios, PDFs, criterios de cobertura y hojas de cálculo.
No es atención clínica propiamente dicha, pero consume una cantidad enorme de tiempo de profesionales altamente cualificados. Por eso Mike Krieger, CPO de Anthropic, lo expresó sin rodeos: muchos clínicos sienten que pasan más tiempo con papeleo que viendo pacientes.
Aquí la automatización tiene sentido. Preparar documentación, extraer datos relevantes, redactar justificaciones, comprobar criterios de cobertura y dejar todo listo para revisión humana es un uso lógico de la IA. El modelo actúa como una “máquina de trámites”, no como un oráculo médico.
OpenAI afirma que 230 millones de personas hablan sobre su salud con ChatGPT cada semana. Esto ya está ocurriendo, exista o no un producto específicamente diseñado para ello.
Sería ingenuo pensar que Anthropic no observa el mismo patrón. La diferencia está en cómo se canaliza ese uso: hacia un chat genérico de consejos o hacia flujos más controlados, trazables y auditables.
Aunque Claude for Healthcare también ofrezca asesoramiento médico, la cuestión clave no es si puede responder, sino cómo se valida lo que dice, cómo se limita su alcance, cómo se registra su uso y quién asume la responsabilidad cuando algo falla.
Tanto Anthropic como OpenAI repiten la advertencia habitual: para orientación fiable y personalizada, es necesario acudir a profesionales sanitarios. El disclaimer no es postureo; es un airbag legal y clínico.
Todo apunta a un futuro inmediato con la IA profundamente integrada en sanidad, pero empezando por donde más duele y menos riesgo clínico existe: burocracia, codificación, coberturas e informes. Queda por ver si los conectores y las agent skills de Claude realmente reducen tiempos y fricción… o si simplemente transforman el tipo de trabajo que acaba recayendo sobre el médico.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.