Table of contents

Hasta ahora, determinar si las plataformas impulsadas por inteligencia artificial están difundiendo desinformación o apuntando negativamente a los niños, recaía en las empresas que las operan o en las pocas organizaciones de investigación capaces de filtrar datos públicamente disponibles.

Eso fue hasta que la Unión Europea comenzó a monitorear tales actividades a fines de agosto, a medida que implementa su ley conocida como Ley de Servicios Digitales, la cual se aplica a plataformas en línea como empresas de redes sociales y motores de búsqueda que tienen más de 45 millones de usuarios activos en Europa. La ley está diseñada para combatir el discurso de odio y la difusión de desinformación, así como para prevenir el apuntar a menores.

Aunque los gobiernos nacionales de los 27 países miembros de la Unión Europea son responsables de hacer cumplir la ley, la UE también estableció el Centro Europeo de Transparencia Algorítmica, o ECAT, que ahora audita algoritmos y datos subyacentes de las 19 principales plataformas que cumplen con los criterios de la ley.

"Cuando decimos transparencia algorítmica, nos referimos a una auditoría", dijo E. Alberto Pena Fernández, jefe de la unidad ECAT, en una entrevista en su oficina en Bruselas. "Estamos realizando un análisis sistemático de lo que hace el algoritmo".

Dijo que ECAT examina muestras de datos de una plataforma y el software que produce recomendaciones o promueve publicaciones, videos y otros materiales para los usuarios.

Sin embargo, en Estados Unidos, la idea de la auditoría todavía está en pañales. Algunos legisladores y defensores han estado presionando por transparencia, pero la legislación no ha avanzado. Una razón puede ser las preguntas críticas que deben enfrentarse, como lo ilustra el manejo del proceso por parte de la UE.

Fernández comparó el método europeo con los auditores financieros que certifican el rendimiento de una empresa.

"Decimos: 'este es el riesgo que estamos tratando de evitar' y le pedimos a la empresa que nos muestre el algoritmo que maneja ese riesgo", dijo Fernández. En el caso de la desinformación, por ejemplo, "examinamos el algoritmo que trata con la desinformación o la moderación de ese contenido y le pedimos a la empresa que nos muestre cómo funciona".

Las 19 empresas que cumplen con la definición de grandes plataformas de la UE incluyen importantes empresas estadounidenses como Amazon.com Inc.; la App Store de Apple Inc.; el motor de búsqueda Bing, parte de Microsoft Corp.; Facebook e Instagram, ambas parte de Meta Platforms Inc.; Google LLC; Pinterest; y YouTube; así como empresas europeas y chinas como Alibaba Express, Booking.com y TikTok.

La unidad de la UE está desarrollando un conjunto de "metodologías y protocolos a prueba de balas" mediante la prueba de software y datos proporcionados por empresas bajo acuerdos de confidencialidad estrictos para ver si los algoritmos producen resultados prohibidos, como desinformación y apuntar a menores, dijo Fernández.

Si los resultados de las pruebas no coinciden con las afirmaciones de seguridad y cumplimiento de una plataforma, se puede pedir a la empresa que cambie su algoritmo. Si eso no sucede, la empresa sería llevada a los tribunales, según Fernández. Las empresas enfrentan multas de hasta el 6 por ciento de las ventas globales y una posible prohibición del mercado europeo.

Ninguna propuesta en Estados Unidos ha llegado tan lejos en cuanto a ese nivel de multa, y solo recientemente dos senadores sugirieron que se debería crear una nueva agencia para contrarrestar la desinformación.

El senador Edward J. Markey, demócrata por Massachusetts, propuso legislación en julio que requeriría que las plataformas en línea revelen a los usuarios qué información personal recopilan y cómo los algoritmos la utilizan para promover ciertos contenidos. El proyecto de ley otorgaría a la Comisión Federal de Comercio la autoridad para establecer reglas para dicha divulgación.

En el Congreso anterior, el senador Chris Coons, demócrata por Delaware, propuso legislación que requeriría que las grandes plataformas en línea brinden a investigadores externos certificados acceso a algoritmos y datos para ayudar a comprender cómo funcionan sus plataformas.

Google pide auditorías

La idea de realizar auditorías se está volviendo fundamental para garantizar que los sistemas de inteligencia artificial operen dentro de límites seguros y no causen daños generalizados.

Recientemente, los senadores Richard Blumenthal, demócrata de Connecticut, y Josh Hawley, republicano de Missouri, propusieron un marco legislativo que responsabilizaría a los sistemas de IA y que exige la creación de una agencia de supervisión que "deba contar con la autoridad para realizar auditorías" y emitir licencias a empresas que desarrollen sistemas de IA utilizados en situaciones de alto riesgo, como reconocimiento facial y otros.

Blumenthal, quien preside el Panel de Privacidad, Tecnología y Derecho del Comité Judicial del Senado, dijo la semana pasada a los periodistas que la idea de licenciar y auditar los sistemas de IA es recomendada por destacados científicos en el campo de la IA que han comparecido ante el subcomité.

La Administración Nacional de Telecomunicaciones e Información, una agencia del Departamento de Comercio, recibió aproximadamente 1,400 comentarios de empresas y grupos de defensa sobre la creación de un sistema de responsabilidad para tecnologías de inteligencia artificial.

Charles Meisch, portavoz de la NTIA, dijo que la agencia no podría comentar sobre sus recomendaciones para un sistema de auditorías hasta que emita un informe público más adelante en el año.

Sin embargo, en comentarios públicos presentados a la agencia, Google y la empresa de seguridad de IA Anthropic PBC respaldaron la idea de las auditorías.

"Las evaluaciones, auditorías y certificaciones deben orientarse hacia la promoción de la responsabilidad, empoderar a los usuarios y generar confianza", dijo Google, agregando que se debe capacitar a un grupo de auditores independientes para llevar a cabo tales tareas.

Google también mencionó que "las auditorías podrían evaluar los procesos de gobernanza de los desarrolladores y implementadores de IA", al tiempo que pedía un estándar de auditoría internacional.

Anthropic abogó por desarrollar evaluaciones efectivas, definir las mejores prácticas y establecer un marco de auditoría que varias agencias gubernamentales puedan implementar.

Independientemente de lo que el Congreso haga respecto a las auditorías de la IA, tener una entidad gubernamental en Estados Unidos con el poder que tiene el centro algorítmico de la UE sería muy inusual, señaló Rumman Chowdhury, investigador de IA responsable en el Berkman Klein Center for Internet & Society de la Universidad de Harvard.

"Nunca antes hemos tenido una entidad gubernamental que diga 'seremos los encargados de determinar si su plataforma de propiedad privada está teniendo un impacto en los procesos democráticos'" en forma de desinformación, dijo Chowdhury.

Si estas prácticas de auditoría algorítmica se convierten en la norma global, algunos gobiernos autocráticos podrían utilizar el poder para silenciar a los críticos en nombre de acabar con la desinformación, advirtió Chowdhury, quien también es consultor en el Centro Europeo para la Transparencia Algorítmica.

En Europa, aunque la unidad de transparencia algorítmica tiene como objetivo abordar la desinformación en línea y el dirigirse a los menores en plataformas de redes sociales y motores de búsqueda, Fernandez afirmó que las investigaciones y evaluaciones de algoritmos de la unidad probablemente desempeñarán un papel en cómo la UE se enfrenta a la IA en general.

Según Fernandez, las evaluaciones y análisis de impacto sobre los algoritmos de la unidad probablemente ayudarán a la UE a medida que el bloque se acerque a la promulgación de otra ley, conocida como Acta de Inteligencia Artificial de la UE, a principios del próximo año. La ley categorizará los sistemas de IA de acuerdo con los riesgos y prohibirá ciertos tipos de aplicaciones, al tiempo que exigirá controles estrictos sobre las aplicaciones de alto riesgo.

Nota: Este es el tercero de una serie de artículos que examinan las regulaciones de la Unión Europea sobre tecnología y cómo contrastan con los enfoques que se están siguiendo en Estados Unidos. La producción de esta serie fue posible en parte gracias a una beca mediática trasatlántica de la Fundación Heinrich Böll, en Washington D.C.