HITRUST anunció esta semana el lanzamiento de su nuevo Programa de Garantía de IA HITRUST, diseñado para ayudar a las organizaciones de atención médica a desarrollar estrategias para el uso seguro y sostenible de modelos de inteligencia artificial.

La organización de estándares y certificación también está desarrollando una guía de gestión de riesgos futura para sistemas de IA.

POR QUÉ ES IMPORTANTE

Según el grupo, el Programa de Garantía de IA de HITRUST tiene como objetivo priorizar la gestión del riesgo como una consideración fundamental en la versión recientemente actualizada 11.2 del HITRUST CSF, y está diseñado para permitir a las organizaciones que implementan IA en varios casos de uso interactuar de manera más proactiva y eficiente con sus proveedores de servicios de IA para discutir enfoques para el riesgo compartido.

"La claridad resultante sobre los riesgos y responsabilidades compartidas permitirá que las organizaciones confíen en los controles de protección de información compartida que ya están disponibles en servicios TI internos y organizaciones externas de terceros, incluidos proveedores de plataformas tecnológicas de IA y proveedores de servicios administrados de aplicaciones habilitadas para IA", según HITRUST.

El grupo presenta el programa como el primero de su tipo, centrado en lograr y compartir garantías de control de ciberseguridad para aplicaciones de IA generativas y otros algoritmos emergentes.

El documento de estrategia de HITRUST, "Un camino hacia la IA de confianza", se puede descargar.

Si bien los modelos de IA de proveedores de servicios en la nube y otros permiten a las organizaciones de atención médica expandir los modelos en varios casos de uso y necesidades específicas, la falta de transparencia de las redes neuronales profundas plantea desafíos únicos de privacidad y seguridad, señalan los funcionarios de HITRUST. Las organizaciones de atención médica deben comprender sus responsabilidades con respecto a los datos de los pacientes y asegurarse de contar con garantías confiables de riesgo para sus proveedores de servicios.

El objetivo del programa es ofrecer un "enfoque común, confiable y probado para la garantía de seguridad" que permitirá a las organizaciones de atención médica comprender los riesgos asociados con la implementación de modelos de IA y "demostrar de manera confiable su adhesión a los principios de gestión de riesgos de IA utilizando la misma transparencia, consistencia, precisión y calidad disponibles en todos los informes de garantía de HITRUST", afirman los funcionarios.

HITRUST afirma estar trabajando con Microsoft Azure OpenAI Service en el mantenimiento del CSF y en la mapeación más rápida del CSF en nuevas regulaciones, leyes de protección de datos y estándares.

LA TENDENCIA MÁS AMPLIA

Investigaciones recientes han demostrado que la IA generativa está lista para convertirse en una parte de 22 mil millones de dólares de la industria de la atención médica en la próxima década.

A medida que los sistemas de salud se apresuran a implementar algoritmos generativos y otros algoritmos de IA, están ansiosos por transformar sus operaciones y aumentar la productividad en diversos casos de uso clínicos y operativos. Pero HITRUST señala que "cualquier tecnología disruptiva nueva inherentemente trae consigo nuevos riesgos, y la IA generativa no es una excepción".

Implementarlo de manera responsable es de vital importancia: la mayoría de las organizaciones de atención médica adoptan un enfoque cauteloso y prudente en su exploración de aplicaciones de IA generativa.

Sin embargo, siempre existen riesgos, especialmente cuando se trata de ciberseguridad, donde la inteligencia artificial es una espada de doble filo.

EN LOS REGISTROS

"El manejo de riesgos, seguridad y garantía para los sistemas de inteligencia artificial requiere que las organizaciones que contribuyen al sistema comprendan los riesgos en todo el sistema y acuerden cómo asegurar conjuntamente el sistema", dijo Robert Booker, director de estrategia de HITRUST, en un comunicado.

"La inteligencia artificial confiable requiere comprender cómo se implementan los controles por parte de todas las partes y se comparten, así como un enfoque práctico, escalable, reconocido y comprobado para que un sistema de inteligencia artificial herede los controles adecuados de sus proveedores de servicios", agregó. "Estamos construyendo Garantías de IA en un sistema probado que proporcionará la escalabilidad necesaria e inspirará confianza en todas las partes involucradas, incluidos los reguladores, que se preocupan por una base confiable para implementaciones de IA".

"La inteligencia artificial tiene un enorme potencial social y los riesgos cibernéticos que los líderes de seguridad gestionan a diario se extienden a la IA", dijo Omar Khawaja, CISO de Databricks y miembro de la junta directiva de HITRUST. "Los enfoques objetivos de garantía de seguridad, como el HITRUST CSF y los informes de certificación de HITRUST, evalúan la base de seguridad necesaria que debe respaldar las implementaciones de IA".

Mike Miliard es el editor ejecutivo de Healthcare IT News

Envíe un correo electrónico al escritor: mike.milia[email protected] IT News es una publicación de HIMSS.