Las completas, incluso exhaustivas, directricespara la inteligencia artificial que la Casa Blanca presentó en una orden ejecutiva el 30 de octubre de 2023, muestran que el gobierno de EE. UU. está tratando de abordar los riesgos que plantea la IA.
Como investigador de sistemas de información y IA responsable, creo que la orden ejecutiva representa un paso importante en la construcción de una IA responsable y confiable.
Sin embargo, la orden es solo un paso y deja sin resolver el tema de la legislación integral de privacidad de datos. Sin leyes de este tipo, las personas están en un mayor riesgo de que los sistemas de AI revelen información confidencial o sensible.
Comprensión de los riesgos de la IA
La tecnología suele evaluarse en función del rendimiento, el costo y la calidad, pero a menudo no se tienen en cuenta la equidad, la justicia y la transparencia. En respuesta, los investigadores y profesionales de la IA responsable han estado abogando por:
El Instituto Nacional de Estándares y Tecnología (NIST) emitió un marco integral de gestión de riesgos de la IA en enero de 2023 que tiene como objetivo abordar muchos de estos problemas. El marco sirve como base para gran parte de la orden ejecutiva de la administración Biden. La orden ejecutiva también faculta al Departamento de Comercio, el hogar del NIST en el gobierno federal, para desempeñar un papel clave en la implementación de las directivas propuestas.
Los investigadores de ética de IA llevan mucho tiempo advirtiendo que se necesita una auditoría más rigurosa de los sistemas de IA para evitar dar la apariencia de escrutinio sin una verdadera responsabilidad. En la actualidad, un estudio reciente que examinó las divulgaciones públicas de las empresas encontró que las afirmaciones sobre prácticas de ética de la IA superan las iniciativas reales de ética de la IA. La orden ejecutiva podría ayudar especificando vías para hacer cumplir la responsabilidad.
Otra iniciativa importante que se describe en la orden ejecutiva es la investigación de vulnerabilidades de modelos de IA de propósito general a gran escala entrenados con grandes cantidades de datos, como los modelos que alimentan a ChatGPT o DALL-E de OpenAI. La orden requiere que las empresas que construyan sistemas de IA grandes con el potencial de afectar la seguridad nacional, la salud pública o la economía realicen pruebas de simulación de ataques y informen los resultados al gobierno. Las pruebas de simulación de ataques consisten en utilizar métodos manuales o automatizados para intentar forzar a un modelo de IA a producir resultados perjudiciales, como hacer declaraciones ofensivas o peligrosas o dar consejos sobre cómo vender drogas.
La importancia de informar al gobierno radica en que un estudio reciente descubrió que la mayoría de las empresas que desarrollan estos sistemas de IA a gran escala carecen de transparencia.
Del mismo modo, el público corre el riesgo de ser engañado por contenido generado por IA. Para abordar esto, la orden ejecutiva instruye al Departamento de Comercio a desarrollar directrices para etiquetar contenido generado por IA. Las agencias federales deberán utilizar marcas de agua de IA , una tecnología que marca el contenido como generado por IA para reducir el fraude y la desinformación, aunque no es obligatorio para el sector privado.
La orden ejecutiva también [reconoce que los sistemas de IA pueden representar riesgos inaceptables](https://ai.gov/wp-content/uploads/2023/10/Rights-Respecting-AI.pdf) para los derechos civiles y humanos y el bienestar de las personas: "Los sistemas de Inteligencia Artificial desplegados de manera irresponsable han reproducido e intensificado desigualdades existentes, causado nuevos tipos de discriminación perjudicial y exacerbado daños en línea y físicos."
Lo que la orden ejecutiva no hace
Uno de los desafíos clave para la regulación de la IA es la ausencia de una legislación federal integral de protección de datos y privacidad. La orden ejecutiva solo insta al Congreso a adoptar legislación sobre privacidad, pero no proporciona un marco legislativo. Queda por ver cómo los tribunales interpretarán las directrices de la orden ejecutiva a la luz de las leyes existentes de privacidad del consumidor y derechos de datos.
Sin fuertes leyes de privacidad de datos en Estados Unidos, como en otros países, es posible que la orden ejecutiva tenga un impacto mínimo en impulsar a las empresas de IA a mejorar la privacidad de datos. En general, es difícil medir el impacto que los sistemas de toma de decisiones basados en IA tienen en la privacidad y las libertades de datos.
También vale la pena señalar que la transparencia algorítmica no es una panacea. Por ejemplo, la legislación del Reglamento General de Protección de Datos de la Unión Europea exige "información significativa sobre la lógica involucrada" en las decisiones automatizadas. Esto sugiere un derecho a una explicación de los criterios que los algoritmos utilizan en su toma de decisiones. El mandato trata el proceso de toma de decisiones algorítmicas como algo similar a un libro de recetas, lo que significa que asume que si las personas entienden cómo funciona la toma de decisiones algorítmicas, pueden comprender cómo el sistema les afecta. Pero saber cómo funciona un sistema de IA no necesariamente te dice por qué tomó una decisión en particular.
Con la toma de decisiones algorítmicas volviéndose omnipresente, la orden ejecutiva de la Casa Blanca y la [cumbre internacional sobre seguridad de la IA](https://www.gov.uk/government/publications/ai-safety-summit-introduction/ai-safety-summit-introduction-html) resaltan que los legisladores están comenzando a comprender la importancia de la regulación de la IA, incluso si falta una legislación integral.
Este artículo se republica de [The Conversation](http://theconversation.com). Lee el [artículo original](https://theconversation.com/biden-administration-executive-order-tackles-ai-risks-but-lack-of-privacy-laws-limits-reach-216694).