La orden ejecutiva del presidente Joe Biden sobre inteligencia artificial está generando una lucha entre aquellos que temen que las agencias facultadas bajo esta orden sobrepasen sus límites y aquellos que se preocupan de que el gobierno no haga lo suficiente.
La orden del mes pasado requiere que varios departamentos recolecten comentarios públicos, elaboren nuevas regulaciones y preparen una serie de informes. Delega importantes responsabilidades en los departamentos de Seguridad Nacional y Comercio, incluyendo el Instituto Nacional de Estándares y Tecnología, el cual se encarga de desarrollar estándares de seguridad.
Se ordena al secretario de Seguridad Nacional establecer una Junta Asesora de Seguridad y Protección de la IA para mejorar la seguridad. Los departamentos de Defensa, Asuntos de Veteranos y Salud y Servicios Humanos deben desarrollar regulaciones para el uso responsable de la IA en sus respectivos campos.
El presidente Joe Biden le entrega al vicepresidente Kamala Harris el bolígrafo que utilizó para firmar una nueva orden ejecutiva sobre inteligencia artificial el 30 de octubre en la Casa Blanca.
Chip Somodevilla, Getty Images La orden instruye a la Comisión Federal de Comercio, la Oficina de Protección Financiera del Consumidor y la Agencia Federal de Financiamiento de Vivienda a elaborar regulaciones para abordar el sesgo y otros daños causados por los sistemas de inteligencia artificial. La Comisión Federal de Comercio también debe examinar si puede hacer cumplir la competencia justa entre las empresas de IA utilizando las autoridades existentes.
Establece un plazo de tres a nueve meses para que las diversas agencias y departamentos produzcan varios informes. También deben solicitar comentarios públicos antes de elaborar nuevas regulaciones, al tiempo que identifican nuevas oportunidades de financiamiento para la IA en varios campos.
El volumen de actividad está atrayendo la atención de diversos grupos de intereses especiales. La Cámara de Comercio de Estados Unidos, que representa a las mayores empresas de Estados Unidos, acogió con satisfacción la orden ejecutiva, afirmando que podría ayudar a Estados Unidos a establecer un estándar global para la seguridad de la IA al financiar una serie de nuevos proyectos.
Pero Jordan Crenshaw, vicepresidente senior de la cámara, expresó su preocupación por las múltiples nuevas regulaciones, así como por la cantidad de comentarios públicos requeridos por las diversas agencias. Dijo que agencias como la Comisión Federal de Comercio, la Oficina de Protección Financiera del Consumidor y la Agencia Federal de Financiamiento de Vivienda, "que ya han demostrado haber excedido su autoridad al tratar de asumir poder, podrían usar esto (la orden) como justificación para continuar como lo han hecho".
Crenshaw mencionó como ejemplo la consideración de la Comisión Federal de Comercio de reglas sobre vigilancia comercial y seguridad de datos, en las que pregunta al público si dichas reglas podrían aplicarse a toda la economía. Dijo que cualquier intento de la Comisión Federal de Comercio de imponer reglas tan amplias, sin una clara nueva autoridad otorgada por el Congreso, podría chocar con la llamada doctrina de "cuestiones principales" de la Corte Suprema. La corte, en el caso West Virginia v. EPA, dictaminó en 2022 que la EPA fue demasiado lejos en su intento de regular las emisiones de gases de efecto invernadero sin una autoridad explícita del Congreso.
La orden de Biden crea hasta 90 solicitudes diferentes de comentarios por parte de las diversas agencias encargadas de elaborar regulaciones, según Crenshaw. "Y con plazos de tiempo muy cortos para presentar comentarios, podríamos sufrir una sobrecarga de comentarios y los interesados podrían perder oportunidades para expresarse simplemente debido a la gran cantidad de comentarios que debemos seguir", dijo.
Algunos grupos de derechos digitales temen que la orden pueda resultar en una supervisión insuficiente.
"Biden ha dado poder a sus agencias para que ahora realmente hagan algo en relación a la IA", dijo Caitlin Seeley George, directora ejecutiva de Fight for the Future, un grupo sin fines de lucro que aboga por los derechos digitales, en un correo electrónico.
En el mejor de los casos, las agencias toman todas las acciones potenciales que podrían surgir del decreto ejecutivo, y utilizan todos sus recursos para implementar un cambio positivo en beneficio de las personas comunes.
Pero también existe la posibilidad de que las agencias hagan lo mínimo indispensable, una opción que haría que esta orden ejecutiva sea ineficaz y desperdicie otro año de nuestras vidas mientras las personas vulnerables siguen perdiendo oportunidades de vivienda y empleo, experimentando una mayor vigilancia en la escuela y en público, y siendo injustamente objetivo de la aplicación de la ley, todo debido a la discriminación y al sesgo de la IA", afirmó.
Es probable que NIST desempeñe un papel fundamental en la creación de nuevas normas de seguridad sobre la IA.
La vicepresidenta Kamala Harris anunció en la Cumbre Global de Seguridad de la IA en el Reino Unido la semana pasada que, bajo la orden de Biden, NIST establecerá un Instituto de Seguridad de la IA, el cual, según ella, "creará estándares rigurosos para probar la seguridad de los modelos de IA de uso público". Sin embargo, un estudio de las necesidades físicas y financieras de NIST, ordenado por el Congreso y completado por las Academias Nacionales de Ciencias, Ingeniería y Medicina en febrero, encontró graves deficiencias en la agencia.
El Congreso asignó $1.65 mil millones a NIST para el año fiscal 2023. Un portavoz de NIST no respondió a preguntas sobre si la agencia planea buscar un aumento en la financiación para cumplir con los nuevos requisitos establecidos en la orden.
Sin embargo, es probable que NIST necesite duplicar su equipo de expertos en IA a 40 personas para implementar la orden del presidente, según afirmó Divyansh Kaushik, director asociado de Tecnologías Emergentes y Seguridad Nacional en la Federación de Científicos Estadounidenses, quien ha estudiado las necesidades de NIST.
La agencia también necesitará aproximadamente $10 millones "solo para establecer el instituto" anunciado por Harris, dijo Kaushik. "Aún no cuentan con ese dinero".
Tendencias en ética de la IA antes y después de ChatGPT
Tendencias en ética de la IA antes y después de ChatGPT
Los sistemas computacionales que demuestran lógica, razonamiento y comprensión de inputs verbales, escritos y visuales han existido durante décadas. Pero el desarrollo ha acelerado en los últimos años con el trabajo en la llamada IA generativa realizado por empresas como OpenAI, Google y Microsoft.Cuando OpenAI anunció el lanzamiento de su chatbot de IA generativa, ChatGPT, en 2022, el sistema rápidamente ganó más de 100 millones de usuarios, lo que le otorgó la tasa de adopción más rápida de cualquier software en la historia de la computación.
Con el aumento de la IA, muchos están abrazando las posibilidades tecnológicas para facilitar la toma de decisiones, acelerar la recopilación de información, reducir los errores humanos en tareas repetitivas y permitir una disponibilidad las 24 horas del día, los 7 días de la semana para diversas tareas. Pero también están creciendo las preocupaciones éticas. Gran parte del desarrollo de la IA se encuentra en manos de empresas privadas, y por razones competitivas, estas son opacas en cuanto a los algoritmos que utilizan en el desarrollo de estas herramientas. Los sistemas toman decisiones basadas en los datos que se les proporcionan, pero no siempre se comparte con el público de dónde provienen esos datos.
Los usuarios no siempre saben si están utilizando productos basados en IA, ni si su información personal se está utilizando para entrenar herramientas de IA. Algunos se preocupan de que los datos puedan estar sesgados y llevar a la discriminación, la desinformación y, en el caso de los programas basados en IA en automóviles y maquinaria, a accidentes y muertes.
El gobierno federal se está encaminando hacia el establecimiento de poderes regulatorios para supervisar el desarrollo de la IA en Estados Unidos.
para ayudar a abordar estas preocupaciones. El Comité Asesor Nacional de Inteligencia Artificial recomienda que las empresas y agencias gubernamentales creen roles de Jefe de Oficial de Inteligencia Artificial Responsable, cuyos ocupantes serían alentados a hacer cumplir una llamada Declaración de Derechos de la Inteligencia Artificial. El comité, establecido mediante una ley en 2020, también recomendó incorporar liderazgo centrado en la IA en cada agencia gubernamental.
Mientras tanto, una organización independiente llamada AIAAIC ha tomado la iniciativa para que los problemas relacionados con la IA sean más transparentes. Magnifi, una plataforma de inversión en IA, analizó las quejas éticas recopiladas por AIAAIC sobre inteligencia artificial desde 2012 para ver cómo han aumentado las preocupaciones sobre la IA en la última década. Las quejas se originan a partir de informes de medios y envíos revisados por AIAAIC.
Una parte significativa del público tiene dificultades para entender la IA y teme sus implicaciones
Muchos consumidores son conscientes cuando interactúan con tecnología impulsada por IA, como cuando hacen preguntas a un chatbot o reciben recomendaciones de compra basadas en compras anteriores. Sin embargo, son menos conscientes de la magnitud que han alcanzado estas tecnologías.Cuando Pew Research encuestó a los estadounidenses en diciembre de 2022 y les preguntó si conocían seis ejemplos específicos de cómo se utiliza la IA, solo 3 de cada 10 adultos los conocían todos. Esto incluye comprender cómo funciona la IA con los servicios de correo electrónico y la organización del buzón de entrada, cómo los rastreadores de actividad física utilizan la IA y cómo las cámaras de seguridad pueden reconocer rostros. Esta falta de comprensión de cómo se manifiesta la IA en la vida diaria contribuye a la actitud de los estadounidenses hacia esta tecnología. Pew descubrió que el 38% de los estadounidenses están más preocupados que emocionados por el aumento de la IA.
A medida que la IA se integra en la tecnología de consumo, las preocupaciones alcanzan su punto máximo
Inicialmente, las preocupaciones sobre la IA se centraban en las empresas de redes sociales y sus algoritmos, como el estudio de Facebook en 2014 cuando los investigadores de la compañía manipularon los feeds de noticias de 700,000 usuarios sin su conocimiento, o los algoritmos que difunden desinformación y propaganda durante las elecciones presidenciales de 2020.La adopción viral de ChatGPT y las herramientas de creación multimedia en el último año han alimentado las preocupaciones sobre los efectos de la IA en la sociedad, especialmente en el aumento del plagio, el racismo, el sexismo, el sesgo y la proliferación de datos inexactos.
En septiembre de 2022, una queja de AIAAIC contra Upstart, una compañía de préstamos al consumo que utilizaba IA, mencionó la discriminación racial en la determinación de los beneficiarios de préstamos.
Otras quejas se centran en la falta de ética utilizada en la formación de herramientas de IA.
En junio de 2023, usuarios y colaboradores de Adobe presentaron una queja de AIAAIC sobre el generador de arte Firefly AI de Adobe, argumentando que la empresa actuó de manera poco ética al no informarles que utilizó sus imágenes para entrenar a Firefly.
El gobierno, la tecnología y los medios de comunicación surgen como las principales industrias preocupantes
Si bien el conjunto de datos de AIAAIC es imperfecto y subjetivo, es una de las pocas fuentes que rastrean las preocupaciones éticas relacionadas con las herramientas de IA. Muchas de las agencias gubernamentales que han adoptado la IA, especialmente las fuerzas del orden, se han enfrentado a quejas públicas. Incidentes como la tecnología de reconocimiento facial han causado arrestos injustos en Luisiana, por ejemplo, así como una política rápidamente descartada en 2022 del Departamento de Policía de San Francisco que permitiría a los robots controlados remotamente asesinar a sospechosos.No sorprendentemente, muchos ciudadanos y organizaciones se preocupan por el uso de la IA por parte de empresas tecnológicas en el auge de los chatbots. Algunos de los casos relacionados con ChatGPT y Google Bard giran en torno al plagio y la información incorrecta, lo cual puede afectar negativamente a individuos y empresas y propagar desinformación.
La industria automotriz es otro sector en el cual los principales actores, como Tesla, aprovechan la IA en su carrera hacia los vehículos autónomos. El software Autopilot de Tesla es objeto de mucha atención, con la Administración Nacional de Seguridad del Tráfico en Carreteras informando que el software se ha relacionado con 736 accidentes y 17 víctimas mortales desde 2019.
El caso optimista para el futuro de la IA se basa en el potencial de avances científicos, médicos y educativos
A medida que el gobierno federal trabaja en legislación para establecer poderes regulatorios más claros para supervisar el desarrollo de la IA en los Estados Unidos...y asegurar la rendición de cuentas, muchas industrias, desde la agricultura y la manufactura hasta la banca y el marketing, están preparadas para experimentar grandes transformaciones.
El sector de la atención médica es un campo que está ganando atención por cómo los cambios de la inteligencia artificial pueden mejorar significativamente los resultados de salud y avanzar en la sociedad humana. El lanzamiento en 2022 de una tecnología que puede predecir formas de proteínas está ayudando a los investigadores médicos a comprender mejor las enfermedades, por ejemplo. La IA puede ayudar a las compañías farmacéuticas a crear nuevos medicamentos de manera más rápida y económica a través de un análisis de datos más rápido en la búsqueda de nuevas moléculas de medicamentos potenciales.
La IA tiene el potencial de mejorar la vida de millones de pacientes a medida que impulsa la expansión de la telemedicina y tiene el potencial de ayudar a ampliar el acceso a la atención médica; ayudar en el diagnóstico, tratamiento y manejo de enfermedades crónicas; y ayudar a más personas a envejecer en sus hogares, potencialmente reduciendo los costos.
Los científicos ven el potencial de crear nuevos conocimientos aprovechando la capacidad de la IA para analizar datos y acelerar el descubrimiento científico. Un ejemplo es Earth-2, un proyecto que utiliza una herramienta de predicción del clima basada en IA para pronosticar eventos climáticos extremos y ayudar a las personas a prepararse mejor para ellos. Incluso en la educación, los expertos creen que las herramientas de IA podrían mejorar la accesibilidad al aprendizaje en comunidades desatendidas y ayudar a desarrollar experiencias de aprendizaje más personalizadas.
En el sector financiero, los expertos dicen que la IA plantea un considerable número de preocupaciones éticas. Gary Gensler, jefe de la Comisión de Valores y Bolsa de los Estados Unidos, le dijo al New York Times que el comportamiento en manada, es decir, que todos confíen en la misma información, asesoramiento defectuoso y conflictos de interés, podría ser un desastre económico si no se previene. "No se supone que se coloque al asesor por delante del inversor, no se supone que se coloque al corredor por delante del inversor", dijo Gensler en una entrevista con el New York Times. Para abordar esas preocupaciones, la SEC presentó una propuesta que regula el uso de la IA por parte de las plataformas, prohibiéndoles anteponer sus necesidades comerciales a los mejores intereses de sus clientes.
Edición de la historia por Jeff Inglis. Edición de copia por Kristen Wegrzyn.
Esta historia apareció originalmente en Magnifi y fue producida y distribuida en colaboración con Stacker Studio.
Sé el primero en saber
¡Recibe noticias locales en tu correo electrónico!