Los investigadores utilizaron ChatGPT para diagnosticar quejas relacionadas con los ojos y encontraron que tuvo un buen desempeño.

Como residente de cuarto año de oftalmología en la Escuela de Medicina de la Universidad de Emory, las mayores responsabilidades de Riley Lyons incluyen el triaje: cuando un paciente llega con una queja relacionada con los ojos, Lyons debe hacer una evaluación inmediata de su urgencia.
Con frecuencia, encuentra que los pacientes ya han recurrido a "Dr. Google". Según Lyons, en línea es probable que encuentren que "pueden estar sucediendo muchas cosas terribles basadas en los síntomas que están experimentando".
Entonces, cuando dos de los colegas oftalmólogos de Lyons en Emory se acercaron a él y sugirieron evaluar la precisión del chatbot de IA ChatGPT en el diagnóstico de quejas relacionadas con los ojos, aprovechó la oportunidad.
En junio, Lyons y sus colegas informaron en medRxiv, una editorial en línea de preimpresiones de ciencias de la salud, que ChatGPT se comparó bastante bien con los médicos humanos que revisaron los mismos síntomas, y tuvo un rendimiento mucho mejor que el verificador de síntomas del popular sitio web de salud WebMD.
Y a pesar del problema de "alucinación" ampliamente publicitado que afecta a ChatGPT, es decir, su hábito de hacer declaraciones falsas de vez en cuando, el estudio de Emory informó que la versión más reciente de ChatGPT no realizó ninguna declaración "groseramente inexacta" cuando se presentaron con un conjunto estándar de quejas oculares.
La competencia relativa de ChatGPT, que se estrenó en noviembre de 2022, fue una sorpresa para Lyons y sus coautores. El motor de inteligencia artificial "definitivamente supone una mejora en lugar de simplemente poner algo en la barra de búsqueda de Google y ver qué encuentras", dijo el coautor Nieraj Jain, profesor asistente en el Centro de Ojos de Emory, especializado en cirugía y enfermedades vitreorretinianas.
Pero los hallazgos ponen de relieve un desafío que enfrenta la industria de la atención médica al evaluar las promesas y los obstáculos de la IA generativa, el tipo de inteligencia artificial utilizada por ChatGPT.
La precisión de la información médica brindada por un chatbot puede representar una mejora con respecto a Dr. Google, pero aún hay muchas preguntas sobre cómo integrar esta nueva tecnología en los sistemas de atención médica con las mismas salvaguardias históricamente aplicadas a la introducción de nuevos medicamentos o dispositivos médicos.
La sintaxis fluida, el tono autoritario y la destreza de la IA generativa han captado una atención extraordinaria de todos los sectores de la sociedad, con algunos comparando su impacto futuro con el de internet mismo. En el campo de la atención médica, las empresas están trabajando frenéticamente para implementar la IA generativa en áreas como la radiología y los registros médicos.
Sin embargo, cuando se trata de chatbots para consumidores, aún existe precaución, a pesar de que la tecnología ya está ampliamente disponible y es mejor que muchas alternativas.
Muchos médicos creen que las herramientas médicas basadas en inteligencia artificial (IA) deberían pasar por un proceso de aprobación similar al régimen de la FDA para medicamentos, pero eso estaría a varios años de distancia. No está claro cómo podría aplicarse dicho régimen a las IA de propósito general, como ChatGPT.
No hay duda de que tenemos problemas con el acceso a la atención médica, y si es o no una buena idea utilizar ChatGPT para cubrir las lagunas o llenar los vacíos en el acceso, va a suceder y ya está sucediendo", dijo Jain. "Las personas ya han descubierto su utilidad. Así que necesitamos entender las ventajas potenciales y las dificultades".
Bots con buen trato
El estudio de Emory no está solo en ratificar la precisión relativa de la nueva generación de chatbots de IA. Un informe publicado en Nature a principios de julio por un grupo dirigido por científicos informáticos de Google, afirmó que las respuestas generadas por Med-PaLM, un chatbot de IA construido específicamente para uso médico, "se comparan favorablemente con las respuestas dadas por médicos".La IA también podría tener un mejor trato. Otro estudio, publicado en abril por investigadores de la Universidad de California-San Diego y otras instituciones, incluso señaló que los profesionales de la salud clasificaron las respuestas de ChatGPT como más empáticas que las respuestas de los médicos humanos.
De hecho, varias empresas están explorando cómo se podrían utilizar los chatbots para la terapia de salud mental, y algunos inversores en estas empresas apuestan a que las personas sanas también podrían disfrutar de chatear e incluso establecer vínculos con un "amigo" de IA. La empresa detrás de Replika, uno de los más avanzados de ese género, comercializa su chatbot como "El compañero de IA que se preocupa. Siempre aquí para escuchar y hablar. Siempre a tu lado".
"Necesitamos que los médicos empiecen a darse cuenta de que estas nuevas herramientas están aquí para quedarse y están ofreciendo nuevas capacidades tanto para los médicos como para los pacientes", dijo James Benoit, consultor de IA.
Mientras era investigador postdoctoral de enfermería en la Universidad de Alberta en Canadá, Benoit publicó en febrero un estudio que reportaba que ChatGPT superó significativamente a los verificadores de síntomas en línea al evaluar un conjunto de escenarios médicos. "En este punto, son lo suficientemente precisos como para ser considerados", dijo.
Una invitación a problemas
Sin embargo, incluso los investigadores que han demostrado la confiabilidad relativa de ChatGPT son cautelosos al recomendar que los pacientes depositen toda su confianza en el estado actual de la IA. Para muchos profesionales de la salud, los chatbots de IA son una invitación a problemas: citan una serie de cuestiones relacionadas con la privacidad, la seguridad, el sesgo, la responsabilidad, la transparencia y la falta actual de supervisión regulatoria.La propuesta de que la IA debería ser aceptada porque representa una mejora marginal sobre el Dr. Google no resulta convincente, según estos críticos.
"¿No es un poco decepcionante establecer esa barrera?" dijo Mason Marks, un profesor y MD especializado en derecho de la salud en la Universidad Estatal de Florida. Recientemente escribió un artículo de opinión sobre chatbots de IA y privacidad en la Revista de la Asociación Médica Estadounidense.
"No sé qué tan útil es decir: 'Bueno, pongamos este IA conversacional como una solución temporal para compensar estos problemas sistémicos más profundos'", dijo a KFF Health News.
El mayor peligro, según su punto de vista, es la posibilidad de que los incentivos del mercado resulten en interfaces de IA diseñadas para dirigir a los pacientes hacia medicamentos o servicios médicos específicos. "Las empresas podrían querer promover un producto en particular sobre otro", dijo Marks. "El potencial de explotación de las personas y la comercialización de datos es sin precedentes".
OpenAI, la empresa que desarrolló ChatGPT, también instó a la precaución.
"Los modelos de OpenAI no se han ajustado para proporcionar información médica", dijo un portavoz de la empresa. "Nunca debes utilizar nuestros modelos para proporcionar servicios de diagnóstico o tratamiento de enfermedades médicas graves".
John Ayers, un epidemiólogo computacional que fue el autor principal del estudio de UCSD, dijo que al igual que con otras intervenciones médicas, el enfoque debería estar en los resultados del paciente.
"Si los reguladores salieran y dijeran que si quieres proporcionar servicios de pacientes utilizando un chatbot, debes demostrar que los chatbots mejoran los resultados de los pacientes, entonces mañana se registrarían ensayos controlados aleatorios para una serie de resultados", dijo Ayers.
Le gustaría ver una postura más urgente por parte de los reguladores.
"Cien millones de personas tienen ChatGPT en sus teléfonos", dijo Ayers, "y están haciendo preguntas en este momento. Las personas van a utilizar chatbots con o sin nosotros".
Sin embargo, en la actualidad, no hay señales de que se estén realizando pruebas rigurosas de IA para evaluar su seguridad y eficacia de manera inminente. En mayo, Robert Califf, comisionado de la FDA, describió "la regulación de los modelos de lenguaje grandes como algo fundamental para nuestro futuro", pero aparte de recomendar que los reguladores sean "flexibles" en su enfoque, no ofreció muchos detalles.
Mientras tanto, la carrera está en marcha. En julio, The Wall Street Journal informó que la Clínica Mayo estaba asociándose con Google para integrar el chatbot Med-PaLM 2 en su sistema. En junio, WebMD anunció que se estaba asociando con una empresa emergente con sede en Pasadena, California, llamada HIA Technologies Inc., para proporcionar "asistentes de salud digital" interactivos.
Y la integración en curso de la IA tanto en Bing de Microsoft como en la Búsqueda de Google sugiere que el Dr. Google ya está en camino de ser reemplazado por el Dr. Chatbot.
Este artículo fue producido por KFF Health News, que publica California Healthline, un servicio editorialmente independiente de la California Health Care Foundation.