Un número creciente de legislaturas estatales se enfrentan a qué hacer con el rápido avance de la inteligencia artificial.

Ante la falta de legislación federal, algunos estados han estado aprobando leyes para proteger a los ciudadanos de los posibles daños de la IA, como evaluar si su uso conlleva discriminación o exigir la divulgación pública cuando se utiliza.

Sin embargo, la mayoría de las medidas de IA aprobadas por las legislaturas simplemente han creado grupos de trabajo para asesorar a los estados mientras se ponen al día con los complejos problemas involucrados, según un nuevo informe de la Conferencia Nacional de Legislaturas Estatales publicado el jueves.

Los legisladores están lidiando con un "acto de equilibrio crítico", dijo la asambleísta de California Jacqui Irwin durante una llamada con periodistas. La IA se está utilizando cada vez más de maneras que pueden afectar la vida de las personas, desde leer el lenguaje corporal durante entrevistas de trabajo hasta aprobar préstamos o vivienda.

"La IA ya no es solo un concepto de película de ciencia ficción", dijo. Los legisladores estatales no solo necesitan asegurarse de que las agencias estén utilizando la IA de manera responsable, "sino también proteger a nuestros constituyentes mientras interactúan con las empresas del sector privado".

Los estados quieren hacer todo esto mientras también facilitan el desarrollo del país como líder en tecnología que puede ayudar tanto al sector público como al privado a funcionar de manera más eficiente.

"California es el hogar de Silicon Valley", dijo Irwin. "Queremos establecer límites. Queremos proteger la privacidad y hablar de equidad. Pero tampoco queremos frenar la innovación".

Los Beneficios de la IA

Irwin y el senador de Kentucky Whitney Westerfield citaron un informe de PricewaterhouseCoopers que dice que la IA podría aumentar el PIB global en un 14%, o $15.7 billones, para 2030.

Otros beneficios de la IA incluyen hacer que la inversión, la gestión de cartera, las solicitudes de préstamos, las hipotecas y la planificación de jubilación sean "más eficientes, menos emocionales y más analíticos", según el informe de la NCSL.

La IA también podría usarse para prevenir el fraude. Los algoritmos en medicina podrían llevar a medidas preventivas que mantengan a los pacientes fuera del hospital. En la justicia penal, el uso de la IA para la detección de disparos y la elaboración de mapas del crimen podría ayudar a la policía a "resolver crímenes más rápido y mantener a las comunidades más seguras", según el informe.

La IA ya se está utilizando en el desarrollo de vehículos autónomos, ayudando a los automóviles en la carretera a frenar y cambiar de carril para reducir colisiones.

Las ciudades están utilizando la IA para mejorar el servicio al cliente, la planificación urbana y ambiental, el uso de energía y la prevención del delito. La tecnología también puede ayudar a los estados a manejar grandes volúmenes de datos o a mejorar el servicio al cliente. El departamento de trabajo de Georgia, por ejemplo, está utilizando un asistente virtual, el chatbot George AI, en su sitio web. Algunos estados occidentales como California, Nevada y Oregón están utilizando la IA para monitorear imágenes de cámaras en bosques y montañas para detectar incendios forestales.

"Estamos viendo muchos ejemplos realmente buenos, aplicaciones y usos muy interesantes para ello", dijo Westfield. "Pero también estamos viendo algunas aplicaciones malas".

Debido a que la IA es diseñada por humanos que "toman decisiones basadas en emociones", según el informe, "existe el riesgo de que tales algoritmos puedan contener sesgos e inexactitudes".

Qué Pueden Hacer los Estados para Regular la IA

El informe, que tiene como objetivo informar a los legisladores estatales sobre el tema, enumeró varias formas en que las legislaturas pueden abordar esta tecnología emergente.

Los legisladores podrían adoptar un enfoque estrecho al tratar temas específicos de preocupación, como regular el uso de aplicaciones de IA en contratación, según Sorelle Friedler, exmiembro de la Oficina de Política Científica y Tecnológica de la Casa Blanca durante la administración Biden. "Los estadounidenses pueden no querer que los empleadores rastreen movimientos o expresiones faciales", cita el informe a Friedler. En cambio, es posible que deseen que "las decisiones de contratación sean tomadas por una persona y no por un programa".

Los estados podrían esperar a crear nuevas regulaciones y ver cómo las leyes actuales están afectando el uso de la IA en áreas "consecuentes" como el empleo, la educación, la vivienda, la atención médica o la justicia penal.

Podrían requerir que las agencias evalúen si el uso de IA está provocando la "tratamiento injustificado diferente de ciertas poblaciones".

Y los estados podrían aprobar leyes de transparencia que requieran que se informe a las personas si se utiliza IA, por ejemplo, para tomar decisiones de contratación.

Un vistazo a las leyes ya aprobadas por los estados

Según el informe, la cantidad de proyectos de ley en las legislaturas estatales para abordar la IA ha ido en aumento, aunque no muchos se han aprobado. En 2020, al menos 15 estados presentaron proyectos de ley y resoluciones sobre inteligencia artificial, pero solo se aprobaron leyes en Massachusetts y Utah.

Sin embargo, este año ha habido un "aumento" en los proyectos de ley, con al menos 25 estados, Puerto Rico y el Distrito de Columbia presentando medidas sobre IA. De esos, 14 estados y Puerto Rico aprobaron leyes o resoluciones.

Muchos de los proyectos de ley que se han aprobado en los últimos años buscan proteger los derechos de las personas.

Una medida aprobada por la Asamblea General de Illinois en 2020 requería que los empleadores notificaran a los solicitantes si se utilizaría IA para analizar una entrevista grabada en video.

En 2021, Colorado prohibió a las compañías de seguros el uso de algoritmos o modelos predictivos de manera discriminatoria basada en raza, color, origen nacional o étnico, religión, sexo, orientación sexual, discapacidad, identidad de género o expresión de género.

Connecticut este año requirió que el Departamento de Servicios Administrativos del estado comenzara a evaluar el uso de la IA por parte de las agencias estatales para garantizar que no conduzcan a la discriminación.

Pero no toda la legislación ha sido diseñada para restringir el uso de la IA.

Una ley en Mississippi requirió que se enseñara robótica, IA y aprendizaje automático a estudiantes de K-12. Mientras tanto, Maryland creó un programa de subsidios para ayudar a las pequeñas y medianas empresas manufactureras a implementar nuevas tecnologías de IA.

Pero la mayoría de las leyes aprobadas crearon equipos de trabajo. Dada la complejidad de la IA, muchas legislaturas, incluidas las de Luisiana, Dakota del Norte, Puerto Rico, Texas y West Virginia, están buscando orientación sobre qué hacer.

Los equipos de trabajo son un enfoque común para abordar tecnologías emergentes sobre las cuales los legisladores pueden no saber mucho, dijo Susan Frederick, asesora principal de asuntos federales de NCSL.

Westfield de Kentucky hizo eco de ese sentimiento. "Los legisladores se están apresurando a tomar decisiones de políticas sobre IA. Y temo que no todos estén familiarizados con los beneficios y riesgos de la IA", dijo. "Todavía estoy aprendiendo, y soy tan nerd como se puede ser".

Westfield advirtió a los legisladores que se tomen su tiempo. Si bien hay algunos problemas que requieren que los legisladores actúen rápidamente, dijo, este no es uno de ellos.

"Queremos asegurarnos de que las personas hagan esto de manera responsable y de que la tecnología sea capaz de hacer lo que esperamos que haga de manera segura", dijo.