Los médicos luchan con la IA en la atención al paciente, citando reglas laxas

En medicina, las advertencias sobre los efectos no deseados de la inteligencia artificial ya son legendarias.

Existió el programa destinado a predecir cuándo los pacientes desarrollarían sepsis, una infección mortal del torrente sanguíneo, que desencadenó una letanía de falsas alarmas. Otro, destinado a mejorar la atención de seguimiento de los pacientes más enfermos, pareció profundizar las preocupantes disparidades de salud.

Temerosos de tales fallas, los médicos han mantenido a la IA trabajando al margen: ayudando como escriba, como segunda opinión casual y como organizador administrativo. Pero el campo ha ganado inversión e impulso para usos en medicina y más allá.

Dentro de la Administración de Alimentos y Medicamentos, que desempeña un papel clave en la aprobación de nuevos productos médicos, la IA es un tema candente. Está ayudando a descubrir nuevos fármacos. Podría señalar efectos secundarios inesperados. E incluso se está considerando como una ayuda para el personal que está abrumado por tareas repetitivas y rutinarias.

Sin embargo, en un sentido crucial, el papel de la FDA ha sido objeto de duras críticas: el cuidado con el que examina y describe los programas que aprueba para ayudar a los médicos a detectar todo, desde tumores hasta coágulos sanguíneos y pulmones colapsados.

“Vamos a tener muchas opciones. Es emocionante”, dijo en una entrevista el Dr. Jesse Ehrenfeld, presidente de la Asociación Médica Estadounidense, un importante grupo de lobby de médicos. «Pero si los médicos van a incorporar estas cosas en su flujo de trabajo, si van a pagar por ellas y si van a utilizarlas, tendremos que tener cierta confianza en que estas herramientas funcionan».

El presidente Biden emitió una orden ejecutiva el lunes que exige regulaciones en un amplio espectro de agencias para tratar de gestionar los riesgos de seguridad y privacidad de la IA, incluso en la atención médica. La orden busca más fondos para la investigación de la IA en medicina y también para un programa de seguridad para recopilar informes sobre daños o prácticas inseguras. A finales de esta semana habrá una reunión con líderes mundiales para discutir el tema.

En un evento el lunes, Biden dijo que era importante supervisar el desarrollo y la seguridad de la IA y construir sistemas en los que la gente pueda confiar.

“Por ejemplo, para proteger a los pacientes, utilizaremos la IA para desarrollar medicamentos contra el cáncer que funcionen mejor y cuesten menos”, dijo Biden. «También lanzaremos un programa de seguridad para garantizar que los sistemas de salud de IA no causen daño».

Ninguna agencia estadounidense gobierna todo el panorama. El senador Chuck Schumer, demócrata de Nueva York y líder de la mayoría, convocó a ejecutivos de tecnología al Capitolio en septiembre para discutir formas de nutrir el campo y también identificar dificultades.

Google ya ha llamado la atención del Congreso con su piloto de un nuevo chatbot para trabajadores sanitarios. Llamado Med-PaLM 2, está diseñado para responder preguntas médicas, pero tiene levantó preocupaciones sobre la privacidad del paciente y el consentimiento informado.

La forma en que la FDA supervisará esos “grandes modelos lingüísticos”, o programas que imitan a los asesores expertos, es sólo un área en la que la agencia va a la zaga de los avances que evolucionan rápidamente en el campo de la IA. Los funcionarios de la agencia recién han comenzado a hablar sobre la revisión de tecnología que continuaría “aprendiendo” a medida que procesa miles de exploraciones de diagnóstico. Y las reglas existentes de la agencia alientan a los desarrolladores a centrarse en un problema a la vez, como un soplo cardíaco o un aneurisma cerebral, en contraste con las herramientas de inteligencia artificial utilizadas en Europa que buscan una variedad de problemas.

El alcance de la agencia se limita a los productos aprobados para su venta. No tiene autoridad sobre los programas que los sistemas de salud crean y utilizan internamente. Los grandes sistemas de salud como Stanford, Mayo Clinic y Duke, así como las aseguradoras de salud, pueden crear sus propias herramientas de inteligencia artificial que afectan las decisiones de atención y cobertura de miles de pacientes con poca o ninguna supervisión gubernamental directa.

Aún así, los médicos plantean más preguntas mientras intentan implementar las aproximadamente 350 herramientas de software que la FDA ha autorizado para ayudar a detectar coágulos, tumores o un agujero en el pulmón. Han encontrado pocas respuestas a preguntas básicas: ¿Cómo se construyó el programa? ¿En cuántas personas se probó? ¿Es probable que identifique algo que un médico típico pasaría por alto?

La falta de información disponible públicamente, tal vez paradójica en un ámbito repleto de datos, está haciendo que los médicos se queden atrás, temerosos de que una tecnología que suena interesante pueda llevar a los pacientes por el camino de más biopsias, facturas médicas más altas y medicamentos tóxicos sin mejorar significativamente la atención.

El Dr. Eric Topol, autor de un libro sobre la IA en la medicina, es un optimista casi imperturbable sobre el potencial de la tecnología. Pero dijo que la FDA había cometido un error al permitir que los desarrolladores de IA mantuvieran su “salsa secreta” en secreto y al no exigir estudios cuidadosos para evaluar cualquier beneficio significativo.

«Es necesario tener datos realmente convincentes y excelentes para cambiar la práctica médica y transmitir confianza de que este es el camino a seguir», dijo el Dr. Topol, vicepresidente ejecutivo de Scripps Research en San Diego. En cambio, añadió, la FDA ha permitido “atajos”.

Grandes estudios están empezando a contar más de la historia: uno encontró los beneficios de usar IA para detectar cáncer de mama y otro destacó fallas en una aplicación destinada a identificar cáncer de pieldijo el Dr. Topol.

El Dr. Jeffrey Shuren, jefe de la división de dispositivos médicos de la FDA, ha reconocido la necesidad de continuar los esfuerzos para garantizar que los programas de IA cumplan sus promesas una vez que su división los apruebe. Si bien los medicamentos y algunos dispositivos se prueban en pacientes antes de su aprobación, normalmente no se exige lo mismo de los programas de software de inteligencia artificial.

Un nuevo enfoque podría ser construir laboratorios donde los desarrolladores pudieran acceder a grandes cantidades de datos y crear o probar programas de inteligencia artificial, dijo el Dr. Shuren durante la conferencia de la Organización Nacional de Enfermedades Raras el 16 de octubre.

«Si realmente queremos asegurar ese equilibrio adecuado, vamos a tener que cambiar la ley federal, porque el marco vigente para que utilicemos estas tecnologías tiene casi 50 años», dijo el Dr. Shuren. «Realmente no fue diseñado para la IA»

Otras fuerzas complican los esfuerzos para adaptar el aprendizaje automático a las principales redes hospitalarias y sanitarias. Los sistemas de software no se comunican entre sí. Nadie se pone de acuerdo sobre quién debería pagarlos.

Según una estimación, alrededor del 30 por ciento de los radiólogos (un campo en el que la IA ha hecho grandes avances) están utilizando tecnología de IA. Las herramientas sencillas que pueden mejorar la nitidez de una imagen son fáciles de vender. Pero los de mayor riesgo, como aquellos que seleccionan a qué escáneres cerebrales se les debe dar prioridad, preocupan a los médicos si no saben, por ejemplo, si el programa fue entrenado para detectar las enfermedades de un joven de 19 años versus uno de 90 años. viejo.

Consciente de tales fallas, la Dra. Nina Kottler está liderando un esfuerzo multimillonario de varios años para examinar los programas de IA. Es la directora médica de IA clínica en Radiology Partners, una práctica con sede en Los Ángeles que lee aproximadamente 50 millones de exploraciones al año en unos 3200 hospitales, salas de emergencia independientes y centros de imágenes en los Estados Unidos.

Sabía que sumergirse en la IA sería delicado para los 3.600 radiólogos de la práctica. Después de todo, Geoffrey Hinton, conocido como el “padrino de la IA”, agitó la profesión en 2016 cuando el predijo que el aprendizaje automático reemplazaría a los radiólogos por completo.

La Dra. Kottler dijo que comenzó a evaluar los programas de IA aprobados interrogando a sus desarrolladores y luego probó algunos para ver qué programas pasaban por alto problemas relativamente obvios o identificaban los sutiles.

Rechazó un programa aprobado que no detectaba anomalías pulmonares más allá de los casos encontrados por sus radiólogos, y pasó por alto algunas obvias.

Otro programa que escaneaba imágenes de la cabeza en busca de aneurismas, una afección potencialmente mortal, resultó impresionante, dijo. Aunque detectó muchos falsos positivos, detectó alrededor de un 24 por ciento más de casos de los que habían identificado los radiólogos. Más personas con un aparente aneurisma cerebral recibieron atención de seguimiento, incluido un hombre de 47 años con un vaso abultado en una esquina inesperada del cerebro.

Al final de una cita de telesalud en agosto, el Dr. Roy Fagan se dio cuenta de que tenía problemas para hablar con el paciente. Ante la sospecha de un derrame cerebral, se apresuró a ir a un hospital en una zona rural de Carolina del Norte para hacerse una tomografía computarizada.

La imagen fue enviada a Greensboro Radiology, un consultorio de Radiology Partners, donde activó una alerta en un programa de inteligencia artificial para clasificación de accidentes cerebrovasculares. Un radiólogo no tenía que examinar los casos antes que los del Dr. Fagan ni hacer clic en más de 1000 cortes de imágenes; el que detectó el coágulo cerebral apareció de inmediato.

El radiólogo hizo que trasladaran al Dr. Fagan a un hospital más grande que pudiera eliminar rápidamente el coágulo. Despertó sintiéndose normal.

«No siempre funciona tan bien», dijo el Dr. Sriyesh Krishnan, de Greensboro Radiology, quien también es director de desarrollo de innovación en Radiology Partners. «Pero cuando funciona tan bien, les cambia la vida a estos pacientes».

El Dr. Fagan quería volver a trabajar el lunes siguiente, pero accedió a descansar una semana. Impresionado con el programa de IA, dijo: «Es un verdadero avance tenerlo aquí ahora».

Radiology Partners no ha publicado sus hallazgos en revistas médicas. Sin embargo, algunos investigadores han destacado casos menos inspiradores de los efectos de la IA en la medicina.

Investigadores de la Universidad de Michigan examinaron una herramienta de inteligencia artificial ampliamente utilizada en un sistema de registros médicos electrónicos destinado a predecir qué pacientes desarrollarían sepsis. Ellos encontrado que el programa disparó alertas en uno de cada cinco pacientes, aunque sólo el 12 por ciento desarrolló sepsis.

Otro programa que analizaba los costos de salud como indicador para predecir las necesidades médicas terminó privando de tratamiento a pacientes negros que estaban tan enfermos como los blancos. Los datos de costes resultaron ser un mal sustituto de la enfermedad, según un estudio del revista ciencia encontrado, ya que normalmente se gasta menos dinero en pacientes negros.

Esos programas no fueron examinados por la FDA. Pero dadas las incertidumbres, los médicos han recurrido a los registros de aprobación de la agencia para asegurarse. Encontraron poco. Un equipo de investigación que analizó programas de IA para pacientes críticamente enfermos encontró evidencia de uso en el mundo real «completamente ausente» o basada en modelos informáticos. El equipo de la Universidad de Pensilvania y la Universidad del Sur de California también descubierto que algunos de los programas fueron aprobados en función de sus similitudes con los dispositivos médicos existentes, incluidos algunos que ni siquiera utilizaban inteligencia artificial.

Otro estudio de los programas aprobados por la FDA hasta 2021 encontró que de 118 herramientas de inteligencia artificial, solo una describía el desglose geográfico y racial de los pacientes en los que se capacitó el programa. La mayoría de los programas se probaron en 500 casos o menos; no es suficiente, concluyó el estudio, para justificar su implementación amplia.

El Dr. Keith Dreyer, autor del estudio y director científico de datos del Mass General Brigham, lidera ahora un proyecto a través del Colegio Americano de Radiología para llenar el vacío de información. Con la ayuda de proveedores de IA que han estado dispuestos a compartir información, él y sus colegas planean para publicar una actualización en los programas autorizados por la agencia.

De esa manera, por ejemplo, los médicos pueden consultar cuántos casos pediátricos se creó para reconocer un programa y así informarles sobre los puntos ciegos que podrían afectar la atención.

James McKinney, portavoz de la FDA, dijo que los miembros del personal de la agencia revisan miles de páginas antes de aprobar los programas de IA, pero reconoció que los fabricantes de software pueden escribir los resúmenes publicados. Estos no están «destinados a tomar decisiones de compra», dijo, y agregó que se proporciona información más detallada en las etiquetas de los productos, que no son fácilmente accesibles al público.

Es fundamental lograr una supervisión adecuada de la IA en la medicina, una tarea que involucra a varias agencias, dijo el Dr. Ehrenfeld, presidente de la AMA. Dijo que los médicos han examinado el papel de la IA en accidentes aéreos mortales para advertir sobre los peligros de los sistemas de seguridad automatizados que anulan el juicio de un piloto (o de un médico).

Dijo que las investigaciones sobre accidentes aéreos del 737 Max habían demostrado que los pilotos no estaban capacitados para anular un sistema de seguridad que contribuyó a las colisiones mortales. Le preocupa que los médicos puedan encontrar un uso similar de la IA ejecutándose en segundo plano en la atención al paciente y que pueda resultar perjudicial.

“Simplemente comprender que la IA existe debería ser un punto de partida obvio”, dijo el Dr. Ehrenfeld. «Pero no está claro que eso vaya a suceder siempre si no tenemos el marco regulatorio adecuado».