Table of contents

Aunque los sistemas algorítmicos se han vuelto ampliamente utilizados en muchas determinaciones socioeconómicas de impacto, estos algoritmos son únicos en sus circunstancias. Este desafío justifica un enfoque para gobernar los algoritmos que permita una supervisión específica de la aplicación de manera integral. Para abordar este desafío, este documento propone otorgar dos nuevas autoridades a las agencias reguladoras clave: (1) autoridad de citación administrativa para investigaciones algorítmicas y (2) autoridad para la formulación de reglas para algoritmos especialmente impactantes dentro del ámbito regulatorio existente de las agencias federales. Este enfoque requiere la creación de un nuevo instrumento regulatorio, presentado aquí como la Clasificación de Sistemas Algorítmicos Críticos, o CASC por sus siglas en inglés. El CASC permite un enfoque integral para desarrollar reglas específicas de aplicación para sistemas algorítmicos y, al hacerlo, mantiene las protecciones de larga data para los consumidores y los derechos civiles sin necesidad de un régimen paralelo de supervisión para los sistemas algorítmicos.

La necesidad de una regulación integral y distribuida de la IA

Los sistemas de toma de decisiones algorítmicas (ADS por sus siglas en inglés) son omnipresentes en muchas determinaciones socioeconómicas críticas, incluido el acceso a la educación, el descubrimiento y la contratación de empleo, la gestión de empleados, los servicios financieros al consumidor, la tasación de propiedades, la fijación de alquileres, la selección de inquilinos, el suministro médico, la aprobación de medicamentos y más. La mayoría de todas las decisiones en estas aplicaciones cruciales se ven afectadas o son tomadas completamente por ADS. Esta proliferación de ADS es un tema fundamental de la política económica y social moderna, con considerables implicaciones para la igualdad de ingresos, la movilidad social, los resultados de salud e incluso la esperanza de vida. Si bien el uso de algoritmos y análisis de datos a veces mejora los resultados sociales, se han documentado muchos daños individuales y sistémicos debido a datos erróneos, fallas algorítmicas, impacto discriminatorio y sobreestimación de la capacidad algorítmica.

Algunas de estas determinaciones socioeconómicas ya están parcialmente sujetas a la ley federal. Sin embargo, las agencias federales con frecuencia no están preparadas para revisar ni regular de manera suficiente los ADS que están bajo su autoridad legal. Muchas agencias carecen de la capacidad crítica en cuanto a supervisión algorítmica, incluyendo: la autoridad para exigir a las entidades que conserven datos, códigos, modelos y documentación técnica; la autoridad para citar estas mismas pruebas; la capacidad técnica para auditar ADS y la autoridad legal para establecer reglas para su uso. Estas limitaciones son una barrera importante para el objetivo del gobierno federal de promover una IA confiable y responsable, tal como se expresa en documentos como el Proyecto de la Casa Blanca para una Declaración de Derechos de la IA, la Memorándum M-21-06 de la Oficina de Administración y Presupuesto (OMB, por sus siglas en inglés) y el Marco para la Gestión del Riesgo de la IA del Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés).

Si bien los desafíos de capacidad se comparten en muchas agencias federales, los detalles de cada ADS, como el tipo de algoritmos utilizados, los datos que manipulan, los procesos sociotécnicos a los que contribuyen y los riesgos que plantean, varían enormemente. El papel de los algoritmos en las determinaciones socioeconómicas clave es tan variado y diverso que no es factible ni deseable establecer todos los estándares o la aplicación de manera centralizada (aunque algunas propiedades, como la divulgación y la no discriminación, pueden ser requisitos universales apropiados). Esto se demuestra claramente por la naturaleza altamente detallada y contextualmente específica de las normativas y orientaciones federales que se han propuesto hasta ahora, incluidas las relacionadas con algoritmos de contratación, modelos de valoración automatizados y sistemas de tecnología de la información en salud. También se evidencia por los desafíos significativos que enfrenta la Unión Europea (UE) al intentar redactar una única Ley Integral de Inteligencia Artificial (IA), lo que puede llevar a un marco legal que carezca de una adaptación suficiente a sectores específicos y aplicaciones algorítmicas. En lugar de un proceso centralizado o un conjunto único de reglas, se les debería otorgar a las agencias federales la autoridad suficientemente flexible para adaptarse a las consideraciones personalizadas de los ADS impactantes en su dominio.

Introducción de la Clasificación de Sistemas Algorítmicos Críticos (CASC)

La proliferación de los Sistemas de Toma de Decisiones Algorítmicas (ADS, por sus siglas en inglés) en las determinaciones socioeconómicas críticas es amplia, pero se manifiesta de manera única en muchos contextos diferentes. Este es un desafío central para la gobernanza de la inteligencia artificial, y requiere un enfoque regulatorio que sea integral, pero que también permita la creación de normas específicas de aplicación y supervisión por parte de las agencias sectoriales.4 Este documento propone un nuevo enfoque legislativo para este doble desafío, que incluiría dos intervenciones clave:

  1. Conceder poder de citación administrativa a las agencias cubiertas para investigar y auditar los ADS que afectan los procesos relacionados con la autoridad estatutaria de cada agencia cubierta.
  2. Crear un nuevo instrumento regulatorio, la Clasificación de Sistemas Algorítmicos Críticos (CASC), para facultar a las agencias cubiertas a emitir y hacer cumplir regulaciones sobre los ADS en las determinaciones socioeconómicas críticas dentro de la autoridad estatutaria de cada agencia.

Estas dos intervenciones (llamadas conjuntamente "enfoque CASC") permitirían ampliamente a las agencias federales abordar de manera proporcional los riesgos significativos existentes y futuros de los ADS que operan dentro del alcance existente de la gobernanza de Estados Unidos. Este documento primero introduce los conceptos clave y la estructura de gobernanza del enfoque CASC, luego discute sus posibles ventajas y desventajas.

Términos clave:

  • Sistema de Toma de Decisiones Algorítmicas (ADS): cualquier proceso computacional (incluidos aquellos basados ​​en estadísticas, aprendizaje automático, inteligencia artificial u otras técnicas de procesamiento de datos y excluyendo la infraestructura de cómputo pasivo5) cuyos resultados sirven como base o componente de una decisión o juicio.6
  • Categoría de ADS: cualquier número de ADS, independientemente del enfoque algorítmico o la entidad de desarrollo, que desempeñan en gran medida el mismo papel en un proceso determinado por una agencia cubierta. Los ADS para analizar currículums vitae, fijar precios de hipotecas o admisiones universitarias podrían ser cada uno una categoría de ADS potencial.
  • Clasificación de Sistemas Algorítmicos Críticos (CASC): una designación legal que se puede aplicar a una categoría de ADS a través del proceso normativo federal, lo que lleva a reglas legalmente vinculantes y exigibles para esa categoría de ADS.
  • Sistema CASC: una categoría de ADS que ha sido designada como CASC a través del propuesto proceso normativo federal.
  • Agencias cubiertas: una lista enumerada de agencias federales con roles regulatorios sectoriales significativos sobre determinaciones socioeconómicas, que potencialmente incluyen: la Oficina de Protección Financiera del Consumidor, el Departamento de Trabajo y la Administración de Salud y Seguridad Ocupacional, el Departamento de Educación, la Comisión de Igualdad de Oportunidades de Empleo, la Agencia de Protección Ambiental, la Corporación Federal de Seguro de Depósitos, la Agencia Federal de Financiamiento de la Vivienda, la Comisión Federal de Comunicaciones, la Junta de la Reserva Federal, el Departamento de Salud y Servicios Humanos, el Departamento de Vivienda y Desarrollo Urbano, la Oficina del Contralor de la Moneda, la Comisión de Valores y Bolsa, el Departamento del Tesoro y el Departamento de Asuntos de Veteranos.7

Permitir la Revisión y Auditoría Algorítmica mediante el Poder de Citación Administrativa

Se otorgaría a las agencias cubiertas la autoridad para recopilar datos, documentación y artefactos técnicos necesarios (incluido código y objetos del modelo), así como realizar entrevistas sobre el desarrollo e implementación de los sistemas ADS a través de citaciones administrativas.8 Tanto los desarrolladores como los implementadores (incluidos los proveedores y contratistas en caso necesario) de los sistemas ADS podrían estar sujetos a las citaciones administrativas. Las agencias cubiertas tendrían la facultad de utilizar estas citaciones administrativas para realizar auditorías algorítmicas de los ADS individuales, llevar a cabo revisiones sistemáticas del impacto de una categoría de ADS, informar el proceso de creación de normas para la designación de CASC y hacer cumplir las reglas para los sistemas CASC.

Una agencia cubierta solo puede emitir citaciones administrativas para los SDA que tengan un impacto significativo en los procesos que caen dentro de la autoridad delegada por el Congreso de esa agencia cubierta. Esto asegura que las agencias cubiertas tengan un poder limitado para investigar y auditar los SDA cuya función cae principalmente dentro de las responsabilidades regulatorias estatutarias de cada agencia, evitando así un exceso de regulación y mitigando la superposición regulatoria entre agencias. Las agencias también deberán proporcionar un aviso apropiado a las entidades que desarrollan y/o implementan los SDA; garantizar la protección de cualquier dato privado obtenido a través de la citación; y evitar la divulgación de secretos comerciales o propiedad intelectual a través del proceso de citación o de las investigaciones relacionadas.

Regulando los SDA a través de una Clasificación de Sistema Crítico Algorítmico (CASC)

La propuesta del CASC sería una nueva designación legal que otorgaría poder a las agencias federales cubiertas para establecer y hacer cumplir las reglas sobre SDA que califiquen. A través del proceso de regulación federal, una agencia cubierta tendría que demostrar que una categoría de SDA cumple con los criterios legales para el CASC, y al hacerlo, podría establecer y hacer cumplir estándares para el uso comercial de ese tipo de sistema CASC.9 El CASC no pretende ampliar el alcance de la regulación federal, sino más bien proporcionar suficiente autoridad legal y herramientas regulatorias para que las agencias cubiertas supervisen los SDA utilizados en el campo de su autoridad delegada existente.

A través del proceso de regulación federal, una agencia deberá demostrar que una categoría de SDA cumple con tres criterios relacionados con el riesgo de daño, el alcance del impacto y el alcance de la autoridad existente de la agencia para aplicar el CASC a esa categoría de SDA.

  1. Riesgo de daños a la accesibilidad a la atención médica, oportunidades económicas o acceso a servicios esenciales: Una agencia cubierta debe demostrar que esta categoría de SDA puede plantear riesgos para el acceso a la atención médica,10 incluyendo su provisión, aprobación, facturación y seguro; para oportunidades iguales, incluyendo el acceso equitativo a la educación, vivienda, crédito, empleo, promoción y otras oportunidades; o para el acceso a recursos o servicios críticos, como servicios financieros, servicios de seguridad, servicios de emergencia o servicios sociales11.
  2. Alcance del impacto: Una agencia cubierta debe demostrar que esta categoría de SDA (agregada en todos los proveedores) impacta a una población significativa de personas en función de su escala o cobertura.
    • Escala: todos los SDA desplegados de una categoría afectan colectivamente a un número significativo y especificado de residentes estadounidenses12; o
    • Cobertura: todos los SDA desplegados de una categoría afectan colectivamente a más del 25% de una población afectada específica de residentes estadounidenses, como una clase protegida u ocupación específica.
  3. Alcance de la autoridad: Una agencia cubierta debe demostrar que esta categoría de SDA está tomando decisiones o afectando procesos que ya están regulados bajo la autoridad delegada por el Congreso de la agencia cubierta.

Al demostrar que una categoría de SDA cumple con los criterios CASC, una agencia cubierta estaría facultada para establecer y hacer cumplir reglas para el desarrollo comercial e implementación de esos sistemas CASC.13 Las agencias cubiertas estarían facultadas para establecer reglas para la función de los sistemas CASC que mitigarían los riesgos identificados, específicamente en relación a las siguientes cualidades:

  • Divulgación: informar a las personas afectadas sobre el uso de un sistema CASC.
  • Transparencia y explicabilidad: informar a las personas afectadas sobre el proceso computacional que resultó en un resultado específico de un sistema CASC, tanto a nivel individual como sistémico.
  • Corrección de datos inexactos: permitiendo a las personas afectadas ver y corregir los datos de entrada utilizados como parte de un sistema CASC.
  • Eficacia y robustez: exigiendo que un sistema CASC cumpla con estándares cuantitativos de rendimiento y sea sometido a pruebas y evaluaciones relevantes tanto antes de su implementación como durante su monitoreo continuo durante la implementación.
  • No discriminación: exigiendo que un sistema CASC cumpla con estándares de manera que no discrimine o genere un impacto desigual, basado en cualquier clase protegida.14
  • Preservación de la privacidad de los datos: exigiendo que los sistemas CASC aseguren que no revelen ni expongan datos sensibles cubiertos.15
  • Alternativa humana: exigiendo a los implementadores de sistemas CASC proporcionar un proceso alternativo no algorítmico cuando esté razonablemente justificado por una persona afectada.
  • Almacenamiento de datos, código, modelos y documentación técnica: exigiendo a los desarrolladores e implementadores de sistemas CASC mantener los datos, código, modelos y documentación técnica relevantes para el sistema CASC por un período especificado.

Por defecto, la agencia cubierta no establecería reglas con respecto a todas las cualidades mencionadas anteriormente, sino que seleccionaría aquellas pertinentes para mitigar los riesgos establecidos en el proceso de reglamentación de CASC. Las agencias cubiertas estarían facultadas para buscar remedios legales o compensación en nombre de las personas afectadas, incluyendo una orden judicial, restitución y multas civiles, en caso de incumplimiento de las regulaciones de CASC. Las autoridades de un tipo específico de sistema CASC serían exclusivas de esa agencia y no podrían ser duplicadas por otra agencia diferente.16 La reglamentación de la agencia para los sistemas CASC estaría sujeta a los requisitos formales de creación de normas establecidos por el Acta de Procedimiento Administrativo, asegurando que el público esté informado y que los interesados puedan contribuir y prepararse para las nuevas regulaciones de CASC.

La autoridad de citación administrativa y la autoridad de creación de normas de CASC se complementarían entre sí, permitiendo un proceso que generalmente consta de cuatro etapas:

  1. Una agencia cubierta descubre y documenta una categoría de ADS que está relacionada con su autoridad estatutaria y puede cumplir con los criterios de CASC.
  2. La agencia utiliza su autoridad de citación administrativa para revisar de manera exhaustiva el desarrollo, implementación e impacto de esta categoría de ADS en el mercado.
  3. Si se determina que cumple con los criterios de CASC, la agencia continúa con el proceso de creación de normas para designar la categoría de ADS como CASC, utilizando la revisión sistemática para informar las reglas para el desarrollo y uso del ADS.
  4. La agencia continúa utilizando la autoridad de citación administrativa para monitorear el uso de ese ADS designado como CASC, evaluando la necesidad de actualizaciones en las reglas pertinentes y, si es necesario, asegurando el cumplimiento a través de litigios.

Ventajas del enfoque CASC

El enfoque CASC es una forma novedosa de gobernar los algoritmos que aborda de manera integral la proliferación de los ADS al permitir que las agencias sectoriales realicen auditorías algorítmicas (a través de citaciones administrativas) y posteriormente emitan regulaciones específicas de aplicación (mediante el proceso descrito anteriormente). Esto distingue de manera significativa al enfoque CASC de otras propuestas de legislaciones de inteligencia artificial, ya que permitirá a las agencias federales adaptarse de manera continua al creciente papel de los ADS en determinaciones socioeconómicas cruciales bajo su autoridad legal.17

El enfoque CASC mejora la gobernanza en varias situaciones específicas, incluyendo la eliminación de obstáculos prácticos para la regulación algorítmica sensata, la clarificación de las incertidumbres en las autoridades legales redactadas antes de la proliferación moderna de los ADS y el abordar la falta de autoridades de supervisión preexistentes sobre algunas categorías de ADS que afectan determinaciones socioeconómicas críticas a gran escala. Algunas agencias regulatorias tienen un mandato limitado para gobernar los ADS, pero enfrentan desafíos prácticos derivados de cómo los ADS han cambiado una industria. Este es el caso de la Comisión de Igualdad de Oportunidades en el Empleo, que actualmente no puede hacer cumplir directamente la ley contra la discriminación en el desarrollo y venta de un sistema ADS discriminatorio por parte de un proveedor.18 De manera similar, los proveedores de puntuaciones crediticias algorítmicas están técnicamente excluidos de la Ley de Igualdad de Oportunidades Crediticias, a pesar de su enorme impacto en el acceso al crédito.19 Varias agencias regulatorias clave también carecen de la autoridad suficiente de citación administrativa para revisar o auditar sistemáticamente los ADS.

Además, existen varias áreas en las que la autoridad regulatoria preexistente no se aplica de manera expresa e inequívoca a los ADS, a pesar de que están estrechamente vinculados a un área regulada. El CASC dejaría claro que las agencias federales pueden regular los ADS que tienen un impacto, por ejemplo, en las leyes federales de discriminación en el empleo, la Ley de seguridad y salud ocupacional, la Ley de vivienda justa y otras legislaciones de derechos civiles. Por último, el enfoque del CASC podría permitir la supervisión algorítmica de algunos ADS que actualmente no están supervisados pero que cumplen con los criterios del CASC, como los ADS para la admisión y fijación de precios de la educación superior, que podrían ser gobernados por el Departamento de Educación.20

Al abordar estas brechas significativas, el CASC también tiene una limitación intencional en su alcance, ya que se centra estrechamente en una deficiencia clave de la capacidad del gobierno federal para regular los ADS comerciales que afectan determinaciones socioeconómicas clave a gran escala. Al depender de citaciones administrativas y del proceso de elaboración de normas federales, el CASC permite nuevas autoridades para las agencias que se basan en estándares legales bien establecidos para la regulación. Por lo tanto, el CASC puede verse como una intervención mínima pero impactante para abordar sistemáticamente los daños causados por los ADS en determinaciones socioeconómicas críticas.

El hecho de que el CASC permita la gobernanza distribuida de los ADS por parte de los reguladores sectoriales es un beneficio clave de este enfoque, en comparación con otorgar autoridades similares a una nueva agencia o empoderar únicamente a la Comisión Federal de Comercio. La creación de una agencia reguladora central de algoritmos podría llevar potencialmente a dos mecanismos regulatorios paralelos: uno para los procesos humanos gobernados por reguladores sectoriales y otro para los ADS gobernados por un regulador algorítmico. Esta estructura paralela estaría constantemente desafiada por las autoridades solapadas e interrelacionadas entre agencias, ya que los componentes humanos y algorítmicos de las determinaciones socioeconómicas son inseparables. El regulador central también carecería del conocimiento necesario en el campo de las agencias sectoriales existentes. Además, a medida que los ADS desempeñan un papel cada vez más importante en la toma de decisiones socioeconómicas críticas, la carga de trabajo del regulador central se expandiría, mientras que la de los reguladores sectoriales se reduciría, creando un desequilibrio a largo plazo. Si bien una nueva agencia reguladora merece consideración para áreas como la privacidad de datos y la gobernanza de plataformas en línea, el enfoque del CASC es una mejor solución para gobernar los ADS utilizados en determinaciones socioeconómicas críticas.

El enfoque del CASC también tiene ventajas significativas para garantizar el liderazgo económico y tecnológico continuo de los Estados Unidos. El requisito del alcance del CASC actuaría como una excepción para las pequeñas empresas innovadoras que están desarrollando nuevos ADS. Esto se debe a que una nueva categoría de ADS no alcanzaría inmediatamente el umbral de personas afectadas. Esto permitiría a las startups desarrollar nuevas categorías de ADS, a la vez que identifican las mejores prácticas y salvaguardias necesarias. Además, los criterios del CASC aseguran que la mayoría de los ADS, como los de diseño de interiores, recomendaciones de películas o identificación de vida silvestre, queden claramente fuera del alcance. Esto es apropiado, ya que el impacto social de la mayoría de los ADS no es suficiente como para exigir una intervención gubernamental.

El CASC permite a los reguladores centrarse en un número relativamente pequeño de proveedores de ADS. A medida que más empresas pasen a utilizar los ADS proporcionados por proveedores (para tareas como contratación, gestión de trabajadores, asignación de atención médica, acceso a la educación, entre otras), la regulación de estos proveedores se convierte en el punto de menor fricción, lo que permite mejoras significativas en la función de los ADS con una interferencia mínima en el mercado. Exigir precisión, no discriminación y transparencia en estos ADS también ofrece una garantía de calidad a las empresas que los adquieren, lo que lleva a un mercado de ADS más eficiente.

La aprobación de un enfoque integral para la regulación algorítmica también enviaría una señal fuerte al resto del mundo de que Estados Unidos se toma en serio los riesgos algorítmicos y que sus empresas tecnológicas serían gobernadas de manera responsable. El enfoque del CASC ayudaría a asegurar que Estados Unidos no solo se convierta en el líder indiscutible en inteligencia artificial (IA), sino en IA confiable, una reputación que atraería negocios e inversiones globales significativas en las próximas décadas. Este mensaje también se escucharía a nivel nacional, fomentando el desarrollo adicional de la industria de aseguramiento de IA nacional, que promete ser un mercado importante por sí mismo.21

También existen justificaciones comerciales internacionales significativas para el enfoque CASC. El CASC permite una gran flexibilidad reglamentaria, lo que facilita una mejor alineación internacional. Esto es especialmente valioso en relación con la UE, que actualmente está implementando un marco reglamentario integral para los sistemas algorítmicos, la Ley de AI de la UE. Una alineación sólida con la UE en relación con los ADS garantiza el funcionamiento continuo de esta relación comercial crítica a la vez que refuerza la supervisión reglamentaria a través de la vigilancia compartida del mercado, el intercambio de mejores prácticas y la colaboración a través de organizaciones internacionales de estándares.

Por último, el enfoque CASC es una intervención relativamente "resistente al futuro", ya que permite la adaptación continua por parte de las agencias federales a la emergencia continua de los ADS dentro de los dominios reglamentarios de las agencias cubiertas. Este enfoque anticipa la necesidad de que el Congreso establezca y actualice rutinariamente una lista de ADS de alto riesgo sobre los cuales las agencias tienen ciertas autoridades. Además, este enfoque reconoce que las agencias federales están en la mejor posición para priorizar qué ADS, debido a su impacto y riesgo de daños, requieren pasar por el proceso CASC.

Deficiencias e intervenciones complementarias

A pesar de sus ventajas, el enfoque CASC tiene desventajas significativas, incluyendo estar limitado por el ritmo del proceso reglamentario, trabajar de manera retrospectiva en lugar de proactiva y no abordar los problemas de capacidad de la agencia. Lo más destacado es que, aunque la reglamentación del CASC permite una especificidad sectorial significativa en la gobernanza de los ADS, esta propuesta sigue siendo una intervención genérica que es mucho menos personalizada que una actualización integral de todas las leyes de protección de los derechos civiles y del consumidor de los EE. UU. para abordar los riesgos de los ADS. La actualización integral de estas leyes es un enfoque indudablemente mejor para la formulación de políticas; sin embargo, también podría ser políticamente inviable y el enfoque CASC podría funcionar como una alternativa viable.

La duración del proceso reglamentario, especialmente cuando es litigado por entidades afectadas, podría ser lo suficientemente prolongada como para socavar seriamente la eficacia del enfoque CASC. Incluso si muchas agencias solo gobiernan un número relativamente pequeño de sistemas CASC (por ejemplo, dos a cinco), el proceso de creación de nuevas regulaciones de varios años y que requiere muchos recursos, a menudo interrumpido por cambios en las administraciones o prioridades presidenciales, podría retrasar las regulaciones del CASC hasta tal punto que permita daños continuos. Para que el enfoque CASC sea efectivo, es posible que sea necesario agilizar este proceso de reglamentación. Refinar y aclarar las definiciones en esta propuesta (especialmente "riesgo de daños" y otros términos utilizados en los criterios CASC) también podría agregar claridad legal y facilitar la reglamentación. Además, la nueva autoridad de citación administrativa podría estar exenta de la Ley de Reducción de Trámites, lo que facilitaría la recopilación de información para el paso clave de demostrar que un ADS cumple con los criterios CASC.

Una solución parcial a este desafío sería que el Congreso ordene a las agencias federales que promulguen reglamentaciones para una lista preseleccionada de categorías de ADS o, alternativamente, crear una prueba o criterio para evaluar cuándo una categoría de ADS calificaría y, por lo tanto, requeriría una reglamentación CASC. Proponer una lista de categorías de ADS existentes que justifiquen la reglamentación del CASC o criterios de evaluación específicos que podrían requerir una reglamentación del CASC son ambas direcciones valiosas para investigaciones futuras.

Otra crítica significativa al enfoque CASC es que su dependencia de la reglamentación implica que sería inherentemente retrospectivo, rezagado respecto a las nuevas categorías de ADS. Para abordar esto, el enfoque CASC podría combinarse con un enfoque basado en derechos para garantizar que todos los algoritmos cumplan con algunas características universales. Esto incluiría la divulgación universal a las personas afectadas, la no discriminación y la honestidad en las descripciones y la publicidad de los ADS. Esto podría respaldarse con un derecho de acción privada, de modo que las personas estén aseguradas y puedan hacer cumplir de forma privada sus derechos algorítmicos.

Por último, las agencias cubiertas necesitarían experiencia y capacidad de personal para llevar a cabo las regulaciones de los ADS habilitadas por la nueva autoridad de citación administrativa y la autoridad de reglamentación del CASC. Se podrían asociar otras intervenciones con el enfoque CASC para abordar este problema, como el aumento de la financiación para las agencias federales, el apoyo a otros programas de contratación de expertos en tecnología o el desarrollo de recursos y experiencia centralizados para ayudar a las agencias federales en la regulación de los ADS.

El enfoque CASC es un enfoque novedoso y potencialmente impactante para permitir la gobernanza integral de los ADS a través de agencias reguladoras sectoriales y la reglamentación específica de las aplicaciones. Se beneficia al utilizar los mecanismos de gobernanza existentes, como la autoridad de citación administrativa y el proceso de reglamentación federal, sin necesidad de crear una nueva agencia. Además, este enfoque tiene restricciones sensatas en cuanto a su alcance, al tiempo que ofrece un enfoque duradero para gobernar los ADS en la toma de decisiones socioeconómicas críticas.

Sin embargo, el enfoque CASC tiene deficiencias significativas en el sentido de que sus reglamentaciones son inherentemente retrospectivas, no garantiza ampliamente los derechos algorítmicos para los ADS que no califican como ADS del CASC y no resuelve los problemas de capacidad en las agencias federales. Para abordar estas limitaciones, el CASC podría combinarse con un enfoque más general basado en derechos para los sistemas algorítmicos, así como con fondos adicionales para las agencias reguladoras federales. Por último, vale la pena mencionar que el enfoque CASC intenta ser una solución genérica a los desafíos algorítmicos que son muy diversos y contextualizados en muchos ámbitos, lo que probablemente llevaría a ineficiencias en su implementación.

A pesar de estas desventajas, el enfoque CASC sería una intervención política significativa para abordar de manera significativa la proliferación de los ADS utilizados para determinaciones socioeconómicas críticas a gran escala, lo cual es un desafío central y sin resolver en la gobernanza de los sistemas algorítmicos.