La asociación médica más importante de Australia ha pedido normas sólidas y transparencia en el uso de la inteligencia artificial en la industria de la salud, después de una advertencia a los médicos de los hospitales de Perth para que no escriban notas médicas utilizando ChatGPT.

La Asociación Médica Australiana dijo en su respuesta al documento de discusión del gobierno federal sobre inteligencia artificial segura y responsable, que se ha hecho pública por The Guardian, que Australia se encuentra rezagada en comparación con otros países comparables en la regulación de la inteligencia artificial y señaló que se necesitan normas más estrictas para proteger a los pacientes y a los profesionales de la salud, así como para generar confianza.

En mayo, se advirtió a cinco hospitales del Servicio de Salud Metropolitana del Sur de Perth que dejaran de utilizar ChatGPT para redactar los registros médicos de los pacientes después de descubrir que algunos miembros del personal habían estado utilizando el gran modelo de lenguaje para esta práctica.

La ABC informó que en un correo electrónico enviado al personal, el CEO del servicio, Paul Forden, dijo que no se garantizaba la confidencialidad del paciente al utilizar este tipo de sistemas y que debía detenerse.

Las protecciones de la inteligencia artificial deben incluir garantizar que los médicos tomen las decisiones finales y que el paciente dé su consentimiento informado para cualquier tratamiento o diagnóstico realizado mediante inteligencia artificial.

La AMA también afirmó que los datos de los pacientes deben estar protegidos y se necesita una supervisión ética adecuada para asegurar que el sistema no conduzca a mayores desigualdades en la salud.

La propuesta de la Ley de Inteligencia Artificial de la UE -que clasificaría los riesgos de diferentes tecnologías de inteligencia artificial y establecería una junta de supervisión- debería considerarse para Australia, según la AMA. También se debería considerar el requisito de Canadá de puntos de intervención humana para la toma de decisiones, añadió.

"La futura regulación debe asegurar que las decisiones clínicas que se vean influenciadas por la inteligencia artificial se tomen con puntos de intervención humana específicos durante el proceso de toma de decisiones", dice la respuesta.

"La decisión final siempre debe ser tomada por un ser humano, y esa decisión debe ser una decisión significativa, no meramente un ejercicio de marcado de casilla".

"La regulación debe dejar claro que la decisión final sobre la atención al paciente siempre debe ser tomada por un ser humano, normalmente un médico".

El presidente de la AMA, el profesor Steve Robson, dijo que la inteligencia artificial es un campo en rápido desarrollo y que la comprensión de la misma varía de persona a persona.

"Tenemos que abordar la brecha en la regulación de la inteligencia artificial en Australia, pero especialmente en el ámbito de la salud, donde existe el potencial de lesiones a los pacientes debido a errores del sistema, sesgos sistémicos incorporados en los algoritmos y un mayor riesgo para la privacidad del paciente", dijo en un comunicado.

La directora médica de Google, la Dra. Karen DeSalvo, dijo a The Guardian Australia a principios de este mes que la inteligencia artificial finalmente mejorará los resultados de salud para los pacientes, pero destacó la importancia de hacer bien los sistemas.

“Tenemos muchas cosas que resolver para asegurarnos de que los modelos estén adecuadamente limitados, que sean precisos, coherentes y que sigan estos enfoques éticos y equitativos que queremos tomar, pero estoy súper emocionado/a por el potencial”.

Un estudio de investigación de Google publicado en Nature este mes encontró que el modelo de lenguaje médico de Google generó respuestas equiparables a las respuestas de médicos en un 92.9% de las ocasiones cuando se le hacían las preguntas médicas más comunes buscadas en línea.