En un día ordinario de la semana en noviembre, Bletchley Park recibe a una mezcla de ancianos jubilados y grupos de niños escolares indisciplinados que vienen a aprender sobre los rompecódigos, incluido Alan Turing, pionero de la computación, que estuvieron basados aquí durante la Segunda Guerra Mundial y ayudaron a las Fuerzas Aliadas a derrotar a los nazis.

Pero esta no es una semana ordinaria y estos no son visitantes comunes.

El miércoles y jueves, delegados de 27 gobiernos de todo el mundo, así como los líderes de las principales compañías de inteligencia artificial, se reunieron en la primera Cumbre Mundial de Seguridad en IA en esta antigua mansión cerca de Londres, ahora convertida en un museo. Entre los asistentes: representantes de los gobiernos de Estados Unidos y China, Elon Musk y el CEO de OpenAI Sam Altman.

Este evento de alto perfil, organizado por el gobierno del Reino Unido liderado por Rishi Sunak, cierra un año de intensas discusiones globales sobre la seguridad en IA, luego del lanzamiento de ChatGPT hace casi un año. El chatbot mostró por primera vez, al menos para muchos usuarios, las potentes capacidades generales de la última generación de sistemas de IA. Su atractivo viral dio vida a una corriente de pensamiento que antes era de nicho: la IA podría, tarde o temprano, representar un riesgo existencial para la humanidad y llevó a los responsables de la formulación de políticas de todo el mundo a considerar si y cómo regular la tecnología. Estas discusiones han tenido lugar en medio de advertencias no solo de que las herramientas de IA actuales ya presentan múltiples peligros, especialmente para las comunidades marginadas, sino también de que la próxima generación de sistemas podría ser 10 o 100 veces más poderosa, por no mencionar más peligrosa.

El gobierno del Reino Unido eligió Bletchley Park como sede de la cumbre debido a su simbolismo: fue uno de los lugares de nacimiento de la informática moderna; las máquinas ideadas aquí para descifrar el código de la máquina Enigma de los nazis sirvieron de base para las primeras computadoras programables. Michelle Donelan, ministra de ciencia y tecnología del Reino Unido, inauguró la cumbre el miércoles expresando la esperanza de que los delegados reunidos para la cumbre contribuyeran a un logro de magnitud similar, "empujando los límites de lo que es realmente posible".

Los funcionarios de todo el mundo no intentaron llegar a un acuerdo aquí sobre un conjunto compartido de reglas aplicables para la tecnología. Pero Sunak anunció el jueves que las empresas de IA habían acordado en la cumbre brindar a los gobiernos un acceso temprano a sus modelos para realizar evaluaciones de seguridad. También anunció que Yoshua Bengio, un científico de la computación ganador del Premio Turing, había aceptado presidir un organismo que busque establecer, en un informe, el consenso científico sobre los riesgos y las capacidades de los sistemas de IA de vanguardia.

"Me complace apoyar la tan necesaria coordinación internacional para gestionar la seguridad en IA, trabajando con colegas de todo el mundo para presentar las últimas evidencias sobre este tema de vital importancia", dijo Bengio en un comunicado.

Más información:Las 100 personas más influyentes en Inteligencia Artificial según TIME100

El logro más destacado de Sunak en la cumbre, el acceso temprano de los laboratorios de IA a los gobiernos a sus sistemas, carecía de detalles. Sunak ya había anunciado en junio que las tres principales compañías de IA de vanguardia (OpenAI, Google DeepMind y Anthropic) habían acordado brindar acceso al Reino Unido a sus sistemas.

acceso temprano o prioritario" a sus sistemas con fines de seguridad. Sunak no especificó cómo difiere este acuerdo alcanzado el jueves de este compromiso existente, si es que lo hace. Tampoco comentó si los gobiernos recibirían el código fuente o los llamados "pesos" de los modelos de vanguardia, o simplemente la capacidad de interactuar con ellos utilizando una interfaz conocida como API. (La oficina de Sunak no respondió de inmediato a una solicitud de comentario).

Sunak también anunció que el Frontier AI Taskforce del Reino Unido se convertiría en un organismo permanente encargado de llevar a cabo evaluaciones de seguridad: el Instituto de Seguridad en IA del Reino Unido.

A pesar del progreso limitado, los delegados en el evento recibieron con satisfacción las discusiones de alto nivel como un primer paso crucial hacia la colaboración internacional para regular la tecnología, reconociendo que si bien había muchos puntos en común, aún existían algunas diferencias clave.

Dando inicio al evento el miércoles, el gobierno del Reino Unido anunció la "Declaración de Bletchley" sobre IA, firmada por 28 países, incluidos Estados Unidos, Reino Unido, China e India, así como la Unión Europea. La declaración afirmaba que la IA plantea riesgos a corto y largo plazo, afirmaba la responsabilidad de los creadores de sistemas de IA poderosos para garantizar su seguridad y se comprometía a la colaboración internacional para identificar y mitigar los riesgos.

El gobierno del Reino Unido, como organizador de la cumbre, ha sabido mantener un equilibrio delicado entre comunicar que se toma en serio los riesgos de la IA por un lado, mientras que por el otro, enviar un mensaje a las empresas tecnológicas de que está abierto para los negocios. "Para mí, el mayor riesgo al que nos enfrentamos en realidad es el riesgo de perder todas estas increíbles oportunidades que la IA puede brindar verdaderamente", dijo Donelan a los líderes de la industria tecnológica en una recepción en la sede de Google DeepMind en la víspera de la cumbre. "Si realmente asustamos demasiado a la gente, o si nos negamos a abordar estos riesgos, entonces no veremos su adopción en nuestro NHS [Servicio Nacional de Salud], no veremos su adopción en nuestra red de transporte, no podremos utilizar la IA para abordar el cambio climático o apoyar a las naciones en desarrollo para abordar problemas como la desigualdad alimentaria. Y eso sería la mayor tragedia que podríamos imaginar".

Por otro lado, Estados Unidos hizo varios anuncios esta semana que amenazaron con eclipsar el reclamo del Reino Unido de liderazgo global en seguridad de la IA. En un discurso en Londres el miércoles, la vicepresidenta Kamala Harris anunció una serie completa de acciones de Estados Unidos, que incluyen el establecimiento de un Instituto de Seguridad en IA estadounidense. Harris dijo que el organismo crearía pautas para evaluaciones de riesgo de sistemas de IA y desarrollaría orientación para los reguladores sobre temas como el marcado de material generado por IA y la lucha contra la discriminación algorítmica. El anuncio de Harris siguió a una orden ejecutiva firmada por el presidente Joe Biden el lunes, que requiere que las empresas de IA notifiquen al gobierno federal cuando entrenen modelos potencialmente peligrosos y compartan los resultados de las pruebas de seguridad antes de hacerlos públicos.

Leer más: Por qué la Orden Ejecutiva de Biden sobre IA solo llega hasta cierto punto

El secretario de Relaciones Exteriores británico, James Cleverley, minimizó el jueves las sugerencias de que Estados Unidos había eclipsado al Reino Unido con sus anuncios. "Esto no se trata de acaparar, se trata de compartir", dijo a TIME. "Esto es algo en lo que queremos que todos participen. No es exclusivo, es inclusivo".

EE.UU.

La vicepresidenta Kamala Harris habla durante una conferencia de prensa en la Cumbre de Seguridad de Inteligencia Artificial (IA) del Reino Unido en Bletchley Park, en el centro de Inglaterra, el 2 de noviembre de 2023. DANIEL LEAL—AFP/Getty Images En Bletchley Park, la policía estaba enérgicamente patrullando un perímetro temporal seguro erigido alrededor del complejo de descifrado de códigos de la guerra. Fuera de la puerta principal, un pequeño grupo de manifestantes del grupo de presión Pause AI estuvo presente el miércoles, agitando pancartas y carteles. El grupo aboga por una pausa temporal en el entrenamiento de sistemas de IA más potentes que el ChatGPT-4 de OpenAI, el sucesor del ChatGPT y el modelo de lenguaje grande más poderoso disponible públicamente en el mundo. "Las encuestas muestran cada vez más que desacelerar el desarrollo de la IA es popular entre el público, al igual que los muchos mensajes de apoyo que recibimos de miembros del público, jóvenes y mayores, hoy mientras protestábamos," dijo Gideon Futerman, uno de los manifestantes, a TIME. "Una pausa no solo es necesaria, sino también alcanzable".

uk-ai-safety-summit-harris

Dentro, las principales discusiones se llevaron a cabo a puerta cerrada, pero algunas figuras de la industria emergieron para dirigirse a los medios de comunicación. Mustafa Suleyman, el cofundador de Google DeepMind y ahora CEO de la startup Inflection AI, dijo en una rueda de prensa que estaba en desacuerdo con aquellos que pedían una pausa en el entrenamiento de la próxima generación de sistemas de IA, pero mencionó que la industria podría considerarlo como una opción en un futuro cercano. 'No lo descarto y creo que en algún momento durante los próximos cinco años aproximadamente, tendremos que considerar esa pregunta muy seriamente', dijo. 'No creo que haya evidencia hoy en día de que los modelos frontera del tamaño de GPT-4... presenten daños catastróficos significativos, y mucho menos daños existenciales. Es objetivamente claro que hay un valor increíble para las personas en el mundo. Pero es una pregunta muy sensata hacerla, ya que creamos modelos que son diez veces más grandes, cien veces más grandes, mil veces más grandes, lo cual ocurrirá durante los próximos tres o cuatro años'.

Una carta abierta en marzo que pedía una pausa de seis meses en el entrenamiento de grandes sistemas de IA fue desestimada por muchos en la industria como algo inaplicable, pero algunos delegados sugirieron que la Cumbre estaba dando pasos hacia la construcción de un marco internacional donde esta decisión pudiera ser aplicada. Connor Leahy, CEO de la empresa de seguridad en IA Conjecture, quien ha sido especialmente vocal acerca de lo que dice son serias amenazas existenciales planteadas por la IA, dijo a TIME el miércoles que había quedado impresionado por el nivel de las discusiones y el acuerdo casi unánime de que la colaboración para abordar los riesgos era necesaria. 'En general, creo que el Reino Unido ha hecho algo realmente fenomenal aquí', dijo, elogiando la cantidad de asistentes de alto nivel tanto del gobierno como de la industria. 'Este no es el lugar donde se toman decisiones políticas en la práctica, este es el tipo de lugar donde se sientan las bases'.

Se invitó a miembros selectos de la sociedad civil a asistir a sesiones a puerta cerrada con responsables políticos y tecnólogos, aunque algunos de ellos se quejaron de lo que dijeron era una representación insuficiente. 'Si esta es realmente una conversación global, ¿por qué asisten principalmente la sociedad civil de Estados Unidos y el Reino Unido?' dijo Vidushi Marda, delegada del evento de la organización sin ánimo de lucro REAL ML, y con sede en Bangalore, India. 'La mayoría de las decisiones relevantes nos son bastante opacas, a pesar de que estamos en la sala'.

Otros acusaron a la Cumbre de reflejar los puntos de vista de la industria. 'Ha habido una captura completa de la industria en esta conversación, y en muchos aspectos, esta cumbre refleja eso', dice Amba Kak, la directora ejecutiva del Instituto AI Now, un grupo de investigación. 'El contexto de todo esto es que estamos presenciando una mayor concentración de poder en la industria tecnológica y, dentro de ella, unos pocos actores. Y si dejamos que la industria marque el tono en la política de IA, no es suficiente decir que queremos regulación, porque vamos a ver una regulación que profundiza aún más los intereses de la industria'.

Kak dijo que el alcance de la cumbre parecía haber cambiado hacia el final del proceso para incluir la discusión sobre riesgos a corto plazo, lo cual ella consideró positivo. 'Las primeras señales sugerían que la Cumbre se centraba casi exclusivamente en las amenazas de largo plazo', dijo. 'Si hay algo que destacar de la [Declaración de Bletchley], es que hay que ocuparse de los riesgos a corto plazo y eso no está desconectado de los riesgos a largo plazo'.

Más información: La A a la Z de la Inteligencia Artificial

Si bien la Cumbre pudo haber tenido éxito hasta cierto punto para cerrar la brecha entre los investigadores que advierten sobre los riesgos a corto y largo plazo, hubo una diferencia de opinión separada entre los enfoques de código abierto y de código cerrado para la investigación en IA, que fue evidente para muchos de los asistentes de la industria. Los defensores de una investigación en IA más restringida afirman que los peligros de una IA avanzada son demasiado significativos como para permitir la distribución gratuita del código fuente de los modelos potentes. La comunidad de código abierto no está de acuerdo, diciendo que las empresas impulsadas por el lucro que monopolizan la investigación en IA probablemente conduzcan a resultados negativos y argumentan que la apertura de los modelos puede acelerar la investigación sobre seguridad.

"El debate sobre el código abierto todavía se siente como algo complicado, y no creo que la Cumbre, dado que estaba abordando una variedad de temas, haya sido capaz de proporcionar suficiente espacio para profundizar en los detalles de manera suficiente como para encontrar un mayor consenso", dijo Jess Whittlestone, delegada y jefa de política en IA en el Centro de Resiliencia a Largo Plazo, un think tank, a TIME. "En las discusiones en las que participé, hubo bastante acuerdo en que necesitábamos ir más allá de un debate binario entre código abierto/cerrado, y contemplar soluciones más matizadas, pero aún había perspectivas diferentes sobre cómo debía ser eso y qué debería tener prioridad".

Leer más: El acalorado debate sobre quién debería controlar el acceso a la IA

El simbolismo de la reunión en Bletchley Park, hogar de un esfuerzo de guerra donde mentes brillantes se reunieron para salvaguardar la vida y la libertad frente a una amenaza existencial, no pasó desapercibido para muchos asistentes. Pero si la Cumbre no logra ofrecer los resultados deseados, una comparación histórica alternativa podría ser una metáfora más acertada. Después de la guerra, la célebre agencia de descifrado con sede en Bletchley evolucionó hacia GCHQ, la agencia de inteligencia del Reino Unido que, en colaboración con la Agencia de Seguridad Nacional de Estados Unidos, llevó a cabo programas indiscriminados de vigilancia masiva a nivel mundial, utilizando la tecnología no para proteger a los ciudadanos, sino para violar sistemáticamente sus derechos.

"La mitología de Bletchley ha sido instrumentada por sucesivos gobiernos para justificar la vigilancia y el aumento del control tecnológico, dando a entender que estos esfuerzos brotan de la misma fuente que los esfuerzos tecnológicos antifascistas del Reino Unido durante la Segunda Guerra Mundial", dijo Meredith Whittaker, presidenta de Signal, a TIME. "Por lo tanto, no es sorprendente que el intento del gobierno actual de acercarse a la potente industria de la IA con sede en Estados Unidos utilice y expanda esta misma mitología, esperando que el brillo del pasado pueda oscurecer la realidad del presente".