Parece que fue ayer (aunque han pasado casi seis meses) desde que OpenAI lanzó ChatGPT y comenzó a aparecer en los titulares.

ChatGPT llegó a 100 millones de usuarios en tres meses, convirtiéndose en la aplicación de crecimiento más rápido en décadas. Para comparación, TikTok tardó nueve meses, e Instagram dos años y medio en alcanzar este hito.

Ahora, ChatGPT puede utilizar GPT-4 y la navegación por Internet y complementos de marcas como Expedia, Zapier, Zillow, entre otros, para responder a las solicitudes de los usuarios.

Grandes empresas de tecnología como Microsoft se han asociado con OpenAI para crear soluciones de servicio al cliente con inteligencia artificial. Google, Meta y otros están construyendo sus modelos de lenguaje y productos de inteligencia artificial.

Más de 27.000 personas, incluidos CEO de empresas tecnológicas, profesores, científicos de investigación y políticos, han firmado una petición para pausar el desarrollo de la inteligencia artificial en los sistemas más potentes que GPT-4.

Ahora, la pregunta puede no ser si el gobierno de Estados Unidos debe regular la inteligencia artificial, si no es demasiado tarde.

A continuación, se presentan desarrollos recientes en la regulación de la inteligencia artificial y cómo pueden afectar el futuro de su avance.

Federal Agencies se comprometen a luchar contra el sesgo

Cuatro agencias federales clave de EE. UU.: la Oficina de Protección Financiera al Consumidor (CFPB), la División de Derechos Civiles del Departamento de Justicia (DOJ-CRD), la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) y la Comisión Federal de Comercio (FTC), emitieron una declaración sobre el fuerte compromiso de combatir el sesgo y la discriminación en los sistemas automatizados y la inteligencia artificial.

Estas agencias han subrayado su intención de aplicar las regulaciones existentes a estas tecnologías emergentes para garantizar que cumplan con los principios de equidad, igualdad y justicia.

CFPB, responsable de la protección del consumidor en el mercado financiero, reafirmó que las leyes financieras existentes se aplican a todas las tecnologías, independientemente de su complejidad o novedad. La agencia ha sido transparente en su postura de que la naturaleza innovadora de la tecnología de inteligencia artificial no puede ser utilizada como defensa para violar estas leyes.

DOJ-CRD, la agencia encargada de proteger contra la discriminación en diversos aspectos de la vida, aplica el Acta de Vivienda Justa a los servicios de selección de inquilinos basados en algoritmos. Este es un ejemplo de cómo se pueden usar las leyes civiles existentes para automatizar sistemas y la inteligencia artificial.

El EEOC, responsable de hacer cumplir las leyes contra la discriminación en el empleo, emitió una guía sobre cómo se aplica el Acta de Estadounidenses con Discapacidades a la inteligencia artificial y el software utilizado en la toma de decisiones laborales.

La FTC, que protege a los consumidores de prácticas comerciales injustas, ha expresado su preocupación por el potencial de las herramientas de inteligencia artificial para ser inherentemente sesgadas, inexactas o discriminatorias. Ha advertido que la implementación de AI sin una adecuada evaluación de riesgos o hacer afirmaciones no sustentadas sobre la IA, podría ser considerada una violación de la Ley de la FTC.

Por ejemplo, el Centro de Política Digital e Inteligencia Artificial ha presentado una queja ante la FTC sobre el lanzamiento de GPT-4 de OpenAI, un producto que "es sesgado, engañoso y representa un riesgo para la privacidad y la seguridad pública".

Senador cuestiona a empresas de IA sobre seguridad y mal uso

El senador estadounidense Mark R. Warner envió cartas a las principales empresas de inteligencia artificial (IA), incluyendo Anthropic, Apple, Google, Meta, Microsoft, Midjourney y OpenAI.

En esta carta, Warner expresó su preocupación por las consideraciones de seguridad en el desarrollo y uso de sistemas de inteligencia artificial. Solicitó a los destinatarios de la carta que prioricen estas medidas de seguridad en su trabajo.

Warner destacó una serie de riesgos de seguridad específicos de la IA, como problemas en la cadena de suministro de datos, ataques de envenenamiento de datos, ejemplos adversarios y el posible mal uso o uso malintencionado de sistemas de IA. Estas preocupaciones se presentaron en el contexto de la creciente integración de la IA en varios sectores de la economía, como la atención médica y las finanzas, lo que subraya la necesidad de precauciones de seguridad.

La carta hizo 16 preguntas sobre las medidas tomadas para garantizar la seguridad de la IA. También se insinuó la necesidad de algún nivel de regulación en el campo para prevenir efectos perjudiciales y garantizar que la IA no avance sin las salvaguardias adecuadas.

Se pidió a las empresas de IA que respondieran antes del 26 de mayo de 2023.

La Casa Blanca se reúne con líderes de IA

La administración Biden-Harris anunció iniciativas para fomentar la innovación responsable en la inteligencia artificial (IA), proteger los derechos de los ciudadanos y garantizar la seguridad.

Estas medidas se alinean con el impulso del gobierno federal para gestionar los riesgos y oportunidades asociados con la IA.

La Casa Blanca tiene como objetivo poner a las personas y las comunidades primero, promoviendo la innovación en IA para el bien público y protegiendo la sociedad, la seguridad y la economía.

Los principales funcionarios de la administración, incluida la vicepresidenta Kamala Harris, se reunieron con líderes de Alphabet, Anthropic, Microsoft y OpenAI para discutir esta obligación y la necesidad de una innovación responsable y ética.

Específicamente, discutieron la obligación de las corporaciones de garantizar la seguridad de LLM y los productos de IA antes de su implementación pública.

Las nuevas medidas idealmente complementarían medidas extensas ya tomadas por la administración para promover la innovación responsable, como la Declaración de derechos de IA, el Marco de gestión de riesgos de IA y planes para un Recurso Nacional de Investigación en IA.

Se han tomado medidas adicionales para proteger a los usuarios en la era de la IA, como una orden ejecutiva para eliminar el sesgo en el diseño y uso de nuevas tecnologías, incluida la IA.

La Casa Blanca señaló que la FTC, CFPB, EEOC y DOJ-CRD se han comprometido colectivamente a utilizar su autoridad legal para proteger a los estadounidenses del daño relacionado con la IA.

La administración también abordó las preocupaciones de seguridad nacional relacionadas con la ciberseguridad y la bioseguridad de la IA.

Las nuevas iniciativas incluyen $140 millones en financiamiento de la National Science Foundation para siete Institutos Nacionales de Investigación en IA, evaluaciones públicas de los sistemas existentes de IA generativa y nuevas directrices de políticas de la Oficina de Administración y Presupuesto sobre el uso de la IA por parte del Gobierno de EE.UU.

La Audiencia de Supervisión de la IA Explora la Regulación de la IA

Miembros de la Subcomisión de Privacidad, Tecnología y la Ley llevaron a cabo una Audiencia de Supervisión de la IA con destacados miembros de la comunidad de IA para discutir la regulación de la IA.

Aproximándose a la Regulación con Precisión

Christina Montgomery, Directora de Privacidad y Confianza de IBM, hizo hincapié en que si bien la IA ha avanzado significativamente y es ahora fundamental tanto para el consumidor como para el ámbito empresarial, la atención pública que está recibiendo requiere una evaluación cuidadosa del posible impacto social, incluido el sesgo y el mal uso.

Ella apoyó el papel del gobierno en el desarrollo de un marco regulatorio sólido, proponiendo el enfoque de "regulación de precisión" de IBM, que se centra en las reglas específicas del caso de uso en lugar de la propia tecnología, y describió sus principales componentes.

Montgomery también reconoció los desafíos de los sistemas de IA generativos, abogando por un enfoque regulador basado en el riesgo que no obstaculice la innovación. Hizo hincapié en el papel crucial de las empresas en la implementación responsable de la IA, detallando las prácticas de gobernanza de IBM y la necesidad de una Junta de Ética de la IA en todas las empresas involucradas con la IA.

Afrontando los Posibles Efectos Económicos del GPT-4 y Más Allá

Sam Altman, CEO de OpenAI, delieó el compromiso profundo de la empresa con la seguridad, la ciberseguridad y las implicaciones éticas de sus tecnologías de IA.

Según Altman, la empresa realiza pruebas rigurosas internas y de terceros y auditorías regulares de sus controles de seguridad. Además, OpenAI está liderando nuevas estrategias para fortalecer sus sistemas de IA contra las amenazas cibernéticas emergentes.

Altman parecía preocupado por los efectos económicos de la IA en el mercado laboral, ya que ChatGPT podría automatizar algunos empleos. Bajo el liderazgo de Altman, OpenAI está trabajando con economistas y el gobierno de EE. UU. para evaluar estos impactos y diseñar políticas para mitigar posibles daños.

Altman mencionó sus esfuerzos proactivos en la investigación de herramientas y programas de políticas y apoyando programas como Worldcoin que podrían suavizar el impacto de la interrupción tecnológica en el futuro, como la modernización de los beneficios por desempleo y la creación de programas de ayuda a los trabajadores. (Mientras tanto, un fondo en Italia recientemente reservó 30 millones de euros para invertir en servicios para los trabajadores más expuestos al desplazamiento por la IA.)

Altman hizo hincapié en la necesidad de una regulación efectiva de la IA y prometió el continuo apoyo de OpenAI para ayudar a los formuladores de políticas. El objetivo de la empresa, afirmó Altman, es ayudar a formular regulaciones que estimulen la seguridad y permitan un amplio acceso a los beneficios de la IA.

Destacó la importancia de la participación colectiva de diversos interesados, estrategias reguladoras mundiales y colaboración internacional para garantizar la evolución segura y beneficiosa de la tecnología de IA.

Explorando el potencial de daño de la AI

Gary Marcus, profesor de Psicología y Ciencia Neural en la Universidad de Nueva York, expresó su creciente preocupación sobre el posible mal uso de la AI, especialmente los modelos de lenguaje poderosos e influyentes como el GPT-4.

Ilustró su preocupación mostrando cómo él y un ingeniero de software manipularon el sistema para construir una narrativa completamente ficticia sobre extraterrestres que controlan el Senado de los Estados Unidos.

Este escenario ilustrativo expuso el peligro de los sistemas de AI que fabrican historias de manera convincente y planteó la alarma sobre el potencial para que esta tecnología se utilice en actividades maliciosas, como la interferencia electoral o la manipulación del mercado.

Marcus destacó la inherente falta de confiabilidad de los sistemas de AI actuales, lo que puede llevar a consecuencias sociales graves, desde promover acusaciones infundadas hasta proporcionar consejos potencialmente dañinos.

Un ejemplo fue un chatbot de código abierto que parecía influir en la decisión de una persona de quitarse la vida.

Marcus también destacó el surgimiento de la "datocracia", donde la AI puede moldear sutilmente las opiniones, posiblemente superando la influencia de las redes sociales. Otro desarrollo alarmante que señaló fue la rápida liberación de extensiones de AI, como los complementos ChatGPT de OpenAI y la subsiguiente AutoGPT, que tienen acceso directo a Internet, capacidad de escritura de código y potencias de automatización mejoradas, lo que potencialmente aumenta las preocupaciones de seguridad.

Marcus concluyó su testimonio con un llamado a una colaboración más estrecha entre científicos independientes, empresas tecnológicas y gobiernos para garantizar la seguridad y el uso responsable de la tecnología de AI. Advertió que si bien la AI presenta oportunidades sin precedentes, la falta de regulación adecuada, la irresponsabilidad corporativa y la falta inherente de confiabilidad podrían llevarnos a una "tormenta perfecta".

¿Podemos regular la AI?

A medida que las tecnologías de AI empujan los límites, las llamadas a la regulación continuarán en aumento.

En un clima donde las asociaciones de Big Tech están en aumento y las aplicaciones se están expandiendo, suena una señal de alarma: ¿Es demasiado tarde para regular la AI?

Las agencias federales, la Casa Blanca y los miembros del Congreso deberán seguir investigando el panorama urgente, complejo y potencialmente riesgoso de la AI mientras garantizan que los avances prometedores de la AI continúen y que la competencia de Big Tech no sea regulada completamente fuera del mercado.

Imagen destacada: Katherine Welles/Shutterstock