Nuevo informe blanco investiga modelos y funciones de instituciones internacionales que podrían ayudar a gestionar las oportunidades y mitigar los riesgos del crecimiento avanzado de la inteligencia artificial (IA).

El creciente conocimiento del impacto global de la inteligencia artificial avanzada (IA) ha inspirado discusiones públicas sobre la necesidad de estructuras de gobernanza internacionales para ayudar a gestionar las oportunidades y mitigar los riesgos involucrados.

Muchas discusiones se han basado en analogías con la Organización de Aviación Civil Internacional (OACI) en aviación civil, el CERN (Organización Europea para la Investigación Nuclear) en física de partículas, la Agencia Internacional de Energía Atómica (AIEA) en tecnología nuclear, y organizaciones intergubernamentales y multinacionales en muchos otros ámbitos. Sin embargo, aunque las analogías pueden ser un buen punto de partida, las tecnologías emergentes de la IA serán diferentes de la aviación, la física de partículas o la tecnología nuclear.

Para tener éxito con la gobernanza de la IA, necesitamos comprender mejor:

- Los beneficios y riesgos específicos que debemos gestionar a nivel internacional.

- Las funciones de gobernanza que esos beneficios y riesgos requieren.

- Las organizaciones que pueden ofrecer mejor esas funciones.

En nuestro último documento, realizado en colaboración con la Universidad de Oxford, la Universidad de Montreal, la Universidad de Toronto, la Universidad de Columbia, la Universidad de Harvard, la Universidad de Stanford y OpenAI, abordamos estas preguntas e investigamos cómo las instituciones internacionales podrían ayudar a gestionar el impacto global del desarrollo de la IA de vanguardia y asegurarse de que los beneficios de la IA alcancen a todas las comunidades.

El papel crucial de las instituciones internacionales y multilaterales

El acceso a ciertas tecnologías de IA podría mejorar considerablemente la prosperidad y la estabilidad, pero los beneficios de estas tecnologías pueden no estar distribuidos de manera uniforme o centrados en las necesidades más importantes de las comunidades subrepresentadas o del mundo en desarrollo. La falta de acceso a servicios de Internet, capacidad informática o disponibilidad de capacitación o conocimiento en aprendizaje automático también puede evitar que ciertos grupos se beneficien plenamente de los avances en la IA.

Las colaboraciones internacionales podrían ayudar a abordar estos problemas al alentar a las organizaciones a desarrollar sistemas y aplicaciones que satisfagan las necesidades de las comunidades desatendidas y al mejorar las barreras educativas, de infraestructura y económicas para que estas comunidades aprovechen al máximo la tecnología de IA.

Además, los esfuerzos internacionales pueden ser necesarios para gestionar los riesgos que plantean las capacidades de la IA. Sin salvaguardias adecuadas, algunas de estas capacidades, como el desarrollo de software automatizado, la investigación en química y biología sintética y la generación de texto y video, podrían ser utilizadas de manera perjudicial. Los sistemas de IA avanzados también podrían fallar de formas difíciles de prever, creando riesgos de accidentes con consecuencias potencialmente internacionales si la tecnología no se despliega de manera responsable.

Las instituciones internacionales y multilaterales podrían ayudar a avanzar en el desarrollo de la IA y en los protocolos de implementación que minimicen tales riesgos. Por ejemplo, podrían facilitar el consenso global sobre las amenazas que diferentes capacidades de IA plantean a la sociedad y establecer estándares internacionales sobre la identificación y tratamiento de modelos con capacidades peligrosas. Las colaboraciones internacionales en investigación de seguridad también mejorarían nuestra capacidad para hacer que los sistemas sean confiables y resistentes al mal uso.

Por último, en situaciones en las que los estados tienen incentivos (por ejemplo, derivados de la competencia económica) para socavar los compromisos regulatorios de los demás, las instituciones internacionales pueden ayudar a respaldar e incentivar las mejores prácticas e incluso monitorear el cumplimiento de los estándares.

Cuatro posibles modelos institucionales

Exploramos cuatro modelos institucionales complementarios para apoyar la coordinación global y las funciones de gobernanza:

- Una Comisión intergubernamental de IA de vanguardia podría establecer consenso internacional sobre las oportunidades y riesgos de la IA avanzada y cómo se pueden gestionar. Esto aumentaría la conciencia y comprensión pública de las perspectivas y problemas de la IA, contribuiría a un enfoque científicamente informado del uso de la IA y la mitigación de riesgos, y sería una fuente de experiencia para los formuladores de políticas.

- Una Organización intergubernamental o multilateral de Gobernanza Avanzada de IA podría ayudar a internacionalizar y alinear los esfuerzos para abordar los riesgos globales de los sistemas de IA avanzada mediante el establecimiento de normas y estándares de gobernanza y ayudando en su implementación. También podría desempeñar funciones de monitoreo de cumplimiento para cualquier régimen de gobernanza internacional.

- Un Colaborativo de IA de vanguardia podría promover el acceso a la IA avanzada como una asociación público-privada internacional. Al hacerlo, ayudaría a que las sociedades desatendidas se beneficien de la tecnología de IA de vanguardia y promovería el acceso internacional a la tecnología de IA con objetivos de seguridad y gobernanza.

- Un Proyecto de Seguridad de IA podría reunir a investigadores y ingenieros líderes y proporcionarles acceso a recursos informáticos y modelos de IA avanzados para la investigación de mitigación técnica de los riesgos de IA. Esto promovería la investigación y el desarrollo de la seguridad de la IA al aumentar su escala, recursos y coordinación.

Desafíos operativos

Todavía quedan muchas preguntas abiertas importantes sobre la viabilidad de estos modelos institucionales. Por ejemplo, una Comisión de IA Avanzada enfrentará grandes desafíos científicos debido a la gran incertidumbre sobre las trayectorias y capacidades de la IA y a la limitada investigación científica sobre problemas de IA avanzada hasta la fecha.

El rápido avance de la IA y la capacidad limitada en el sector público en temas de IA de vanguardia también podrían dificultar que una Organización de Gobernanza Avanzada de IA establezca normas que se mantengan al día con el panorama de riesgos. Las muchas dificultades de coordinación internacional plantean preguntas sobre cómo se incentivará a los países para que adopten sus estándares o acepten su monitoreo.

De manera similar, los numerosos obstáculos para que las sociedades aprovechen plenamente los beneficios de los sistemas de IA avanzada (y de otras tecnologías) podrían evitar que un Colaborativo de IA de vanguardia optimice su impacto. También podría haber una difícil tensión entre compartir los beneficios de la IA y evitar la proliferación de sistemas peligrosos.

Y para el Proyecto de Seguridad de IA, será importante considerar cuidadosamente qué elementos de la investigación de seguridad se deben realizar a través de colaboraciones y cuáles a través de los esfuerzos individuales de las empresas. Además, un Proyecto podría tener dificultades para obtener acceso adecuado a los modelos más capacitados para llevar a cabo investigaciones de seguridad de todos los desarrolladores relevantes.

Dado las inmensas oportunidades y desafíos globales que presentan los sistemas de IA en el horizonte, es necesario un mayor debate entre los gobiernos y otras partes interesadas sobre el papel de las instituciones internacionales y cómo sus funciones pueden promover la gobernanza y coordinación de la IA.

Esperamos que esta investigación contribuya a las crecientes conversaciones dentro de la comunidad internacional sobre las formas de garantizar que la IA avanzada se desarrolle en beneficio de la humanidad.