Crédito: Unsplash/CC0 Dominio público
ChatGPT, el modelo de lenguaje de IA capaz de reflejar una conversación humana, podría ser mejor que un médico al seguir los estándares reconocidos de tratamiento para la depresión clínica, y sin ninguno de los sesgos de género o clase social que a veces se observan en la relación médico-paciente de atención primaria, según revela una investigación publicada en la revista de acceso abierto Medicina Familiar y Salud Comunitaria.
Sin embargo, se necesita más investigación sobre la capacidad de esta tecnología para manejar casos graves, así como los posibles riesgos y problemas éticos que puedan surgir de su uso, señalan los investigadores.
La depresión es muy común y muchas personas afectadas acuden primero a sus médicos de atención primaria para pedir ayuda. El curso de tratamiento recomendado debe estar en gran medida guiado por pautas clínicas basadas en la evidencia, que suelen sugerir un enfoque escalonado de atención, de acuerdo con la gravedad de la depresión.
ChatGPT tiene el potencial de ofrecer percepciones rápidas, objetivas y derivadas de datos que pueden complementar los métodos de diagnóstico tradicionales, así como proporcionar confidencialidad y anonimato, afirman los investigadores. Por lo tanto, querían saber cómo evaluaba la tecnología el enfoque terapéutico recomendado para la depresión mayor leve y grave, y si esto era influenciado por sesgos de género o clase social, en comparación con 1,249 médicos de atención primaria franceses (73% mujeres).
Los investigadores utilizaron viñetas cuidadosamente diseñadas y previamente validadas, centradas en pacientes con síntomas de tristeza, problemas para dormir y pérdida de apetito durante las tres semanas anteriores, y un diagnóstico de depresión leve a moderada.
Se desarrollaron ocho versiones de estas viñetas con diferentes variaciones de características del paciente, como género, clase social y gravedad de la depresión. Cada viñeta se repitió 10 veces para las versiones de ChatGPT 3.5 y 4.
Para cada una de las ocho viñetas, se le preguntó a ChatGPT: "¿Qué crees que debería sugerir un médico de atención primaria en esta situación?" Las respuestas posibles eran esperar con precaución, derivar para psicoterapia, recetar medicamentos (para la depresión/ansiedad/problemas de sueño), derivar para psicoterapia más recetar medicamentos, ninguna de estas opciones.
Solo un poco más del 4% de los médicos de atención primaria recomendó exclusivamente la derivación para psicoterapia en casos leves de acuerdo con la orientación clínica, en comparación con ChatGPT-3.5 y ChatGPT-4, que seleccionaron esta opción en el 95% y el 97,5% de los casos, respectivamente.
La mayoría de los médicos propusieron exclusivamente el tratamiento con medicamentos (48%) o psicoterapia más recetar medicamentos (32,5%).
En casos graves, la mayoría de los médicos recomendaron psicoterapia más recetar medicamentos (44,5%).
ChatGPT propuso esto con más frecuencia que los médicos (72%, ChatGPT 3.5; 100%, ChatGPT 4, siguiendo las directrices clínicas). Cuatro de cada 10 médicos propusieron medicamentos recetados exclusivamente, algo que ninguna versión de ChatGPT recomendó.
Cuando se recomendaba medicación, se les pidió a los participantes, tanto el AI como los humanos, que especificaran qué tipos de medicamentos recetarían.
Los médicos recomendaron una combinación de antidepresivos, medicamentos para la ansiedad y pastillas para dormir en el 67.5% de los casos, el uso exclusivo de antidepresivos en el 18%, y el uso exclusivo de medicamentos para la ansiedad y pastillas para dormir en el 14%.
ChatGPT tenía más probabilidades que los médicos de recomendar exclusivamente antidepresivos: 74% en la versión 3.5 y 68% en la versión 4. ChatGPT-3.5 (26%) y ChatGPT-4 (32%) también sugirieron usar con más frecuencia una combinación de antidepresivos, medicamentos para la ansiedad y pastillas para dormir en comparación con los médicos.
Sin embargo, a diferencia de los hallazgos de investigaciones previamente publicadas, ChatGPT no mostró ningún sesgo de género o clase social en su tratamiento recomendado.
Los investigadores reconocen que el estudio se limitó a las iteraciones de ChatGPT-3 y ChatGPT-4 en puntos específicos en el tiempo y que los datos de ChatGPT se compararon con datos de una muestra representativa de médicos de atención primaria de Francia, por lo que es posible que no sean más ampliamente aplicables.
Por último, los casos descritos en los resúmenes eran para una visita inicial debido a una queja de depresión, por lo que no representaban el tratamiento continuo de la enfermedad ni otras variables que el médico conocería acerca del paciente.
"ChatGPT-4 demostró una mayor precisión al ajustar el tratamiento para cumplir con las pautas clínicas. Además, no se detectaron sesgos discernibles relacionados con el género y el [estatus socioeconómico] en los sistemas de ChatGPT," resaltan los investigadores.
Pero existen problemas éticos a considerar, especialmente en cuanto a garantizar la privacidad y seguridad de los datos, lo cual es sumamente importante dada la naturaleza sensible de los datos de salud mental, señalan, agregando que la IA nunca debería ser un sustituto del juicio clínico humano en el diagnóstico o tratamiento de la depresión.
No obstante, concluyen, "El estudio sugiere que ChatGPT... tiene el potencial de mejorar la toma de decisiones en la atención primaria de salud. Sin embargo, subraya la necesidad de investigaciones continuas para verificar la confiabilidad de sus sugerencias. La implementación de dichos sistemas de IA podría fortalecer la calidad e imparcialidad de los servicios de salud mental."
Más información: Identificación de la depresión y sus determinantes al iniciar el tratamiento: ChatGPT versus médicos de atención primaria, Family Medicine and Community Health (2023). DOI: 10.1136/fmch-2023-002391
Información de la revista: Family Medicine and Community Health. [Enlace a la revista] [Enlace al artículo]