Reuters ha puesto números —y casos con nombre y apellidos— a una realidad incómoda: la IA médica está entrando a toda velocidad, y la FDA no siempre llega a tiempo para entender qué ocurre cuando algo falla. El problema ya no es teórico, sino operativo, y empieza a dejar rastro documental.
La agencia acumula 1.401 informes entre 2021 y octubre de 2025 relacionados con productos que aparecen en su propia lista de 1.357 dispositivos médicos con IA, y una parte nada menor de esos reportes menciona problemas de software, algoritmos o programación. Sobre el papel, la cifra impresiona, pero no dice demasiado hasta que aterriza en quirófano, con un paciente delante y un cirujano confiando en una pantalla.
El ejemplo más gráfico —y el que más preocupa— es el del Sistema de Navegación TruDi, utilizado en procedimientos para tratar sinusitis crónica y guiar instrumentos dentro de la cabeza del paciente. Aquí no hablamos de una app auxiliar, sino de una herramienta que influye directamente en decisiones quirúrgicas.
En 2021, Acclarent (entonces unidad de Johnson & Johnson) anunció que había añadido inteligencia artificial al TruDi, presentándolo como un “salto adelante”. El software pasó a usar un algoritmo de aprendizaje automático para asistir a especialistas en otorrinolaringología durante cirugías, interpretando la anatomía del paciente y ayudando a confirmar si el instrumental está donde el cirujano cree que está.

Antes de incorporar IA, el dispositivo llevaba unos tres años en el mercado y la FDA había recibido siete fallos no confirmados y una lesión reportada. Tras el “upgrade”, la situación cambió de escala: la FDA recibió al menos 100 informes no confirmados de fallos y eventos adversos asociados al TruDi.
Entre finales de 2021 y noviembre de 2025, los datos disponibles apuntan a al menos 10 personas heridas. Conviene matizar que los informes de la FDA no están pensados para dictar sentencia: pueden ser incompletos, duplicados y con detalles censurados por secretos comerciales. Un informe no prueba causalidad, pero sí señala humo, y en este caso el humo es denso.
La mayoría de los eventos reportados sobre TruDi describen errores de localización. Lo grave aquí no es que un software “se cuelgue”, sino que el sistema supuestamente desinforme al cirujano sobre la posición real de sus instrumentos durante la operación.
En uno de los casos se informó de una fuga de líquido cefalorraquídeo por la nariz del paciente. En otro, un cirujano habría perforado por error la base del cráneo. Además, en dos reportes distintos se alega que los pacientes sufrieron un ictus tras una lesión accidental en una arteria principal.
El matiz clave es que no está claro qué papel jugó exactamente la IA en cada uno de estos eventos. Esa ambigüedad es parte del problema: cuando el software se vuelve más complejo, atribuir responsabilidades técnicas se vuelve más difícil.
Las dos víctimas de ictus presentaron demandas en Texas alegando que la IA del TruDi contribuyó a sus lesiones. Una de las demandas sostiene algo especialmente delicado: que el producto “posiblemente” era más seguro antes de integrar cambios de software para incorporar IA.

El argumento no es que la IA fallara puntualmente, sino que el rediseño empeoró el perfil de riesgo. Una de las demandas describe una sinuplastia realizada en Fort Worth (Texas) en junio de 2022, un procedimiento mínimamente invasivo en el que se infla un globo para abrir el seno paranasal.
La paciente, Erin Ralph, alega que el TruDi con IA se utilizó para confirmar la posición de los instrumentos y que el sistema “engañó y dirigió” al cirujano, provocando una lesión en la arteria carótida que derivó en un coágulo. Tras el alta, se determinó que había sufrido un ictus y acabó de vuelta en cuidados intensivos; según una campaña de GoFundMe, se le extirpó una sección del cráneo para permitir la hinchazón.
En mayo de 2023, otra paciente, Donna Fernihough, afirma que su carótida “explotó” durante una sinuplastia y que sufrió un ictus el mismo día. Reuters señala que no pudo verificar de forma independiente estas acusaciones y que los procedimientos judiciales seguían en curso.
Cuando Reuters preguntó por los informes de la FDA relacionados con TruDi, Johnson & Johnson derivó las preguntas a Integra LifeSciences, que adquirió Acclarent y el sistema TruDi en 2024.
Integra afirmó que los informes “solo indican” que se utilizó un TruDi en cirugías donde ocurrió un evento adverso y aseguró que “no hay pruebas creíbles” de una conexión causal entre el dispositivo, su tecnología de IA y las lesiones alegadas.
Sin embargo, el debate no se cierra con un “no hay pruebas” cuando el volumen de reportes aumenta y el patrón de fallo —localización errónea— se repite. En una publicación de Acclarent en LinkedIn, la empresa describía que su software usa aprendizaje automático para identificar segmentos anatómicos y calcular “el camino más corto y válido” entre dos puntos definidos por el médico.
Esa es precisamente su promesa: guía en tiempo real y planificación quirúrgica simplificada. Y es ahí donde cualquier desviación se vuelve crítica.
TruDi no es un caso aislado. Hoy hay 1.357 dispositivos médicos con IA autorizados por la FDA, aproximadamente el doble que en 2022. Dentro de los 1.401 informes analizados por Reuters, al menos 115 mencionan problemas de software, algoritmos o programación.
Entre los ejemplos aparece Sonio Detect, de Samsung Medison, un software de IA para ecografías prenatales que en un informe de junio de 2025 supuestamente etiquetaba mal estructuras fetales. No constan daños a pacientes en ese caso, pero el error ilustra el riesgo: un algoritmo que señala “X” cuando en realidad es “Y”.

También hubo al menos 16 informes que afirmaban que monitores cardiacos implantables con IA de Medtronic no reconocían ritmos o pausas anormales. La empresa sostuvo que no hubo daños y que revisó los episodios.
El problema estructural es otro. Cinco científicos actuales y antiguos de la FDA declararon que la agencia tiene dificultades para seguir el ritmo, en parte por la pérdida de personal clave. La división DIDSR, crucial para evaluar IA en imagen médica y que llegó a tener unas 40 personas, habría perdido alrededor de 15 por despidos o salidas.
Con menos expertos, la carga de trabajo aumenta y la capacidad de “romper” modelos en escenarios raros —donde suelen aparecer los fallos peligrosos— se reduce.
Aquí está el punto más delicado para el usuario final. La FDA exige ensayos clínicos estrictos para nuevos medicamentos, pero los dispositivos médicos pasan por vías regulatorias distintas.
La mayoría de los dispositivos con IA que llegan al mercado no están obligados a probarse en pacientes según las normas actuales, y pueden aprobarse como “actualizaciones” de productos previos, incluso cuando la IA introduce nuevas fuentes de incertidumbre.
Si el incentivo del mercado es “meter IA para parecer innovador”, el riesgo es confundir avance tecnológico con marketing. Visto el panorama, la pregunta no es si la IA tiene potencial en medicina —lo tiene—, sino si estamos construyendo los frenos al mismo ritmo que el motor.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.