Ha habido mucha especulación sobre cómo pueden usarse los avances en los asistentes de inteligencia artificial (IA) como ChatGPT en medicina.

Un nuevo estudio publicado en JAMA Internal Medicine liderado por John W. Ayers, Ph.D. del Qualcomm Institute en la Universidad de California San Diego ofrece un vistazo temprano al papel que podrían desempeñar los asistentes de IA en la medicina. El estudio comparó las respuestas escritas de los médicos y las de ChatGPT a preguntas de salud del mundo real. Un panel de profesionales de la salud con licencia prefirió las respuestas de ChatGPT el 79% del tiempo y las calificó como de mayor calidad y más empáticas.

"Las oportunidades para mejorar la atención médica con la IA son enormes", dijo Ayers, quien también es vicejefe de innovación en la División de Enfermedades Infecciosas y Salud Pública Global de la Escuela de Medicina de UC San Diego. "La atención médica aumentada por la IA es el futuro de la medicina".

¿Está ChatGPT listo para la atención médica?

En el nuevo estudio, el equipo de investigación se propuso responder la pregunta: ¿Puede ChatGPT responder con precisión a las preguntas que los pacientes envían a sus médicos? Si es así, los modelos de IA podrían integrarse en los sistemas de salud para mejorar las respuestas del médico a las preguntas enviadas por los pacientes y aliviar la carga cada vez mayor sobre los médicos.

"ChatGPT podría ser capaz de pasar un examen de licencia médica", dijo el coautor del estudio Davey Smith, M.D., M.A.S., un médico científico, codirector del Instituto de Investigación Clínica y Traslacional Altman de UC San Diego y profesor de la Escuela de Medicina de UC San Diego. "Pero responder directamente preguntas precisas y empáticas de los pacientes es un juego diferente".

"La pandemia de COVID-19 aceleró la adopción de la atención médica virtual", agregó el coautor del estudio Eric Leas, Ph.D., M.P.H., un afiliado del Qualcomm Institute y profesor asistente en la Escuela de Salud Pública y Ciencia de la Longevidad Humana Herbert Wertheim de UC San Diego. "Si bien esto facilitó el acceso a la atención médica para los pacientes, los médicos están abrumados por una avalancha de mensajes electrónicos de pacientes que buscan consejos médicos que han contribuido a niveles de agotamiento récord de los médicos".

Diseñando un estudio para probar ChatGPT en un entorno de atención médica

Para obtener una muestra grande y diversa de preguntas y respuestas médicas de médicos que no contenían información personal identificable, el equipo recurrió a las redes sociales donde millones de pacientes publican públicamente preguntas médicas a las que los médicos responden: el subreddit de Reddit "AskDocs".

AskDocs es un subreddit con aproximadamente 452,000 miembros que publican preguntas médicas y profesionales de la salud verificados responden. Si bien cualquier persona puede responder a una pregunta, los moderadores verifican las credenciales de los profesionales de la salud y las respuestas muestran el nivel de credenciales del respondiente. El resultado es un conjunto amplio y diverso de preguntas médicas de pacientes y respuestas acompañantes de profesionales médicos con licencia.

Si bien algunos pueden preguntarse si los intercambios de preguntas y respuestas en las redes sociales son una prueba justa, los miembros del equipo señalaron que los intercambios eran reflejo de su experiencia clínica.

El equipo seleccionó al azar 195 intercambios de AskDocs donde un médico verificado respondió a una pregunta pública. El equipo proporcionó la pregunta original a ChatGPT y le pidió que elaborara una respuesta. Un panel de tres profesionales de la salud con licencia evaluó cada pregunta y las respuestas correspondientes y desconocían si la respuesta provenía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, anotando cuál preferían.

El panel de evaluadores profesionales de la salud prefirió las respuestas de ChatGPT a las respuestas de los médicos el 79% del tiempo.

"Los mensajes de ChatGPT respondieron con información sutil y precisa que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas de los médicos", dijo Jessica Kelley, M.S.N, una enfermera especializada de la compañía Human Longevity de San Diego y coautora del estudio.

Además, las respuestas de ChatGPT se clasificaron significativamente más altas en calidad que las respuestas de los médicos: las respuestas de buena o muy buena calidad fueron 3,6 veces más altas para ChatGPT que para los médicos (22,1% para médicos frente a 78,5% para ChatGPT). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces más altas para ChatGPT que para los médicos (4,6% para médicos frente a 45,1% para ChatGPT).

"Nunca imaginé decir esto", agregó Aaron Goodman, M.D., profesor asociado clínico en la Escuela de Medicina de UC San Diego y coautor del estudio, "pero ChatGPT es una receta que me gustaría dar a mi bandeja de entrada. La herramienta transformará la forma en que apoyo a mis pacientes".

Aprovechando los asistentes de IA para los mensajes de los pacientes

"Mientras que nuestro estudio enfrentó a ChatGPT contra los médicos, la solución final no es deshacerte completamente de tu médico", dijo Adam Poliak, Ph.D., profesor asistente de Ciencias de la Computación en Bryn Mawr College y coautor del estudio. "En su lugar, un médico que aprovecha a ChatGPT es la respuesta para una atención médica mejor y más empática".

"Nuestro estudio es uno de los primeros en mostrar cómo los asistentes de IA pueden resolver problemas reales de entrega de atención médica", dijo Christopher Longhurst, M.D., M.S., Director Médico y Director Digital de UC San Diego Health. "Estos resultados sugieren que herramientas como ChatGPT pueden redactar eficientemente consejos médicos personalizados de alta calidad para que los revisen los médicos, y estamos comenzando ese proceso en UCSD Health".

Mike Hogarth, M.D., un médico bioinformático, codirector del Instituto de Investigación Clínica y Traslacional Altman en UC San Diego, profesor en la Escuela de Medicina de UC San Diego y coautor del estudio, agregó: "Es importante que la integración de los asistentes de IA en los mensajes de atención médica se haga en el contexto de un ensayo controlado aleatorizado para juzgar cómo el uso de los asistentes de IA afecta los resultados tanto para los médicos como para los pacientes".

Además de mejorar el flujo de trabajo, las inversiones en mensajería de asistentes de IA podrían tener un impacto en la salud del paciente y el rendimiento del médico.

Mark Dredze, Ph.D., profesor asociado de Ciencias de la Computación en Johns Hopkins y coautor del estudio, señaló: "Podríamos usar estas tecnologías para capacitar a los médicos en la comunicación centrada en el paciente, eliminar las disparidades de salud sufridas por las poblaciones minoritarias que a menudo buscan atención médica a través de la mensajería, construir nuevos sistemas de seguridad médica y ayudar a los médicos entregando una atención de mayor calidad y más eficiente".

Además de Ayers, Poliak, Dredze, Leas, Kelley, Goodman, Longhurst, Hogarth y Smith, autores del artículo de JAMA Internal Medicine, "Comparación de las respuestas del médico y del chatbot de inteligencia artificial a preguntas de pacientes publicadas en un foro público de redes sociales" (JAMA Intern Med. doi:10.1001/jamainternmed.2023.1838), son Zechariah Zhu, B.S., de UC San Diego y el Dr. Dennis J. Faix, M.D., M.P.H., del Centro de Investigación de Salud Naval.