La inteligencia artificial (IA), de conocido renombre como ChatGPT, se utiliza cada vez más en medicina para mejorar el diagnóstico y tratamiento de enfermedades, y evitar tamizajes innecesarios para los pacientes. Sin embargo, los dispositivos médicos de IA también podrían dañar a los pacientes y empeorar las desigualdades en la salud si no se diseñan, prueban y utilizan con cuidado, según un grupo de trabajo internacional que incluyó a un bioeticista del Centro Médico de la Universidad de Rochester.

Jonathan Herington, PhD, fue miembro del Grupo de Trabajo de IA de la Sociedad de Medicina Nuclear e Imagen Médica, que estableció recomendaciones sobre cómo desarrollar éticamente y utilizar dispositivos médicos de IA en dos artículos publicados en el Journal of Nuclear Medicine. En resumen, el grupo de trabajo instó a aumentar la transparencia sobre la precisión y los límites de la IA, y señaló formas de garantizar que todas las personas tengan acceso a dispositivos médicos de IA que funcionen para ellas, independientemente de su raza, etnia, género o riqueza.

Si bien la responsabilidad principal del diseño y la prueba adecuada recae en los desarrolladores de IA, los proveedores de atención médica son en última instancia responsables de utilizar adecuadamente la IA y no deben depender demasiado de las predicciones de la IA al tomar decisiones de atención médica para los pacientes.

"Siempre debe haber una presencia humana", dijo Herington, quien es profesor asistente de Humanidades de la Salud y Bioética en URMC y fue uno de los tres bioeticistas incorporados al grupo de trabajo en 2021. "Los clínicos deben utilizar la IA como un aporte en su propia toma de decisiones, en lugar de reemplazarla por completo".

Esto requiere que los médicos realmente comprendan cómo se pretende utilizar un determinado dispositivo médico de IA, qué tan bien se desempeña en esa tarea y cualquier limitación, y deben transmitir ese conocimiento a sus pacientes. Los médicos deben sopesar los riesgos relativos de falsos positivos frente a falsos negativos para una situación determinada, teniendo en cuenta las desigualdades estructurales.

Por ejemplo, al utilizar un sistema de IA para identificar tumores probables en escáneres PET, los proveedores de atención médica deben saber qué tan bien se desempeña el sistema al identificar este tipo específico de tumor en pacientes del mismo sexo, raza, etnia, etc., que el paciente en cuestión.

"Eso significa que los desarrolladores de estos sistemas deben ser muy transparentes", dijo Herington.

Según el grupo de trabajo, los desarrolladores de IA tienen la responsabilidad de poner a disposición de los usuarios información precisa sobre el uso previsto, el rendimiento clínico y las limitaciones de sus dispositivos médicos. Una forma recomendada de hacerlo es incorporar alertas directamente en el dispositivo o sistema que informen a los usuarios sobre el grado de incertidumbre de las predicciones de la IA. Esto podría manifestarse en mapas de calor en escaneos de cáncer que muestren si las áreas tienen más o menos probabilidades de ser cancerosas.

Para minimizar esa incertidumbre, los desarrolladores deben definir cuidadosamente los datos que utilizan para entrenar y probar sus modelos de IA, y deben utilizar criterios clínicamente relevantes para evaluar el rendimiento del modelo. No es suficiente simplemente validar algoritmos utilizados por un dispositivo o sistema. Los dispositivos médicos de IA deben ser probados en "ensayos silenciosos", lo que significa que su rendimiento sería evaluado por investigadores en pacientes reales y en tiempo real, pero sus predicciones no estarían disponibles para el proveedor de atención médica ni se aplicarían en la toma de decisiones clínicas.

Los desarrolladores también deben diseñar modelos de IA para que sean útiles y precisos en todos los contextos en los que se implementarán.

"Una preocupación es que estos sistemas de alta tecnología y costosos se implementen en hospitales con muchos recursos, y mejoren los resultados para pacientes relativamente favorecidos, mientras que los pacientes en hospitales con escasos recursos o rurales no tendrían acceso a ellos o tendrían acceso a sistemas que empeoren su atención porque no fueron diseñados para ellos", dijo Herington.

Actualmente, los dispositivos médicos de IA se están entrenando en conjuntos de datos en los que los pacientes latinos y negros están subrepresentados, lo que significa que es menos probable que los dispositivos hagan predicciones precisas para pacientes de estos grupos

A fin de evitar profundizar las desigualdades en salud, los desarrolladores deben asegurarse de que sus modelos de inteligencia artificial estén calibrados para todos los grupos raciales y de género, entrenándolos con conjuntos de datos que representen a todas las poblaciones a las que, en última instancia, el dispositivo o sistema médico servirá.

Aunque estas recomendaciones se desarrollaron con un enfoque en la medicina nuclear y la imágenes médicas, Herington cree que se pueden y deberían aplicar a los dispositivos médicos de inteligencia artificial en general.

"Los sistemas se están volviendo cada vez más poderosos todo el tiempo y el panorama está cambiando muy rápidamente", dijo Herington. "Tenemos un plazo que se está cerrando rápidamente para solidificar nuestro marco ético y regulatorio respecto a estas cosas".

###

Lea todas las recomendaciones completas: