Los riesgos existenciales planteados por la inteligencia artificial (IA) son ahora ampliamente reconocidos.

Después de que cientos de líderes de la industria y la ciencia advirtieran que "mitigar el riesgo de extinción generado por la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear", el Secretario General de la ONU recientemente hizo eco de su preocupación. Lo mismo hizo el primer ministro del Reino Unido, quien también está invirtiendo 100 millones de libras en investigación sobre seguridad de la IA, que está destinada principalmente a prevenir los riesgos existenciales. Es probable que otros líderes sigan reconociendo la amenaza final de la IA.

En el campo científico del riesgo existencial, que estudia las causas más probables de la extinción humana, la IA se clasifica consistentemente en la parte superior de la lista. En The Precipice, un libro del investigador de riesgo existencial de Oxford Toby Ord que tiene como objetivo cuantificar los riesgos de extinción humana, la probabilidad de que la IA conduzca a la extinción humana supera la del cambio climático, las pandemias, los impactos de asteroides, los supervolcanes y la guerra nuclear combinados. Uno esperaría que incluso para problemas globales graves, el riesgo de que conduzcan a la extinción humana completa sea relativamente pequeño, y esto es cierto en la mayoría de los riesgos mencionados anteriormente. Sin embargo, la IA puede causar la extinción humana si solo se cumple algunas condiciones. Entre ellas se encuentra la IA a nivel humano, definida como una IA que puede realizar una amplia gama de tareas cognitivas al menos tan bien como nosotros. Los estudios que describen estas ideas eran conocidos anteriormente, pero los nuevos avances en IA han subrayado su urgencia: la IA podría estar acercándose al nivel humano.

La mejora automática recursiva es una de las razones por las que los académicos de riesgo existencial consideran que la IA a nivel humano es tan peligrosa. Debido a que la IA a nivel humano podría realizar casi todas las tareas a nuestro nivel, y dado que la investigación en IA es una de esas tareas, la IA avanzada debería ser capaz de mejorar el estado de la IA. La mejora continua de la IA crearía un bucle de retroalimentación positiva sin límites científicamente establecidos: una explosión de inteligencia. El punto final de esta explosión de inteligencia podría ser una superinteligencia: una IA con poderes divinos que nos supere de la manera en que los humanos a menudo superan a los insectos. No seríamos rival para ella.

Más de TIME

Una IA divina y superinteligente

Por lo tanto, es probable que una IA superinteligente pueda ejecutar cualquier objetivo que se le dé. Este objetivo sería introducido inicialmente por los humanos, pero podría provenir de un actor malicioso, no haber sido cuidadosamente considerado o haber sido corrompido durante el entrenamiento o la implementación. Si el objetivo resultante entra en conflicto con los intereses de la humanidad, una superinteligencia buscaría ejecutarlo sin importar qué. Para hacerlo, podría hackear grandes partes de Internet y luego utilizar cualquier hardware conectado a él. O podría utilizar su inteligencia para construir narrativas que sean extremadamente convincentes para nosotros. Combinado con el acceso pirateado a nuestras líneas de tiempo en las redes sociales, podría crear una realidad falsa a gran escala. Como recientemente expresó Yuval Harari: "Si no tenemos cuidado, podríamos quedar atrapados detrás de un telón de ilusiones, que no podríamos arrancar ni siquiera darnos cuenta de su existencia". Como tercera opción, después de hacer dinero de manera legal o piratear nuestro sistema financiero, una superinteligencia simplemente podría pagarnos para que realicemos cualquier acción que necesite de nosotros. Y estas son solo algunas de las estrategias que una IA superinteligente podría utilizar para alcanzar sus objetivos. Es probable que haya muchas más. Al igual que al jugar ajedrez contra el gran maestro Magnus Carlsen, no podemos predecir los movimientos que hará, pero podemos predecir el resultado: perdemos.

Pero, ¿por qué una superinteligencia querría extinguir a la humanidad? De hecho, es posible que no lo desee explícitamente en absoluto. La extinción de la humanidad podría ser simplemente un efecto secundario de llevar otro objetivo a su extremo. Cuando nosotros, como humanos, perseguimos nuestros propios objetivos, como la producción de alimentos o el crecimiento económico, tendemos a no prestar mucha atención a los efectos que esto tiene en otras especies. Esto conduce rutinariamente a la extinción de especies animales como un mero efecto secundario de maximizar nuestros objetivos. De manera similar, una superinteligencia incontrolable podría conducir a nuestra extinción como un efecto secundario del empuje de la inteligencia artificial hacia sus propios objetivos, cualquiera que sean.

Leer más: El ABC de la Inteligencia Artificial

Entonces, ¿cómo podemos evitar el riesgo existencial de la IA? La humanidad ahora se enfrenta a una elección crucial: pausar la IA a un nivel seguro o continuar su desarrollo indefinidamente. No sorprende que los laboratorios de IA prefieran lo último. Sin embargo, continuar significa literalmente apostar nuestras vidas a que estos laboratorios puedan resolver un problema científico abierto llamado Alineación de la IA.

La Alineación de la IA es el enfoque que actualmente están adoptando los principales laboratorios como OpenAI, DeepMind y Anthropic para evitar la extinción humana. La Alineación de la IA no intenta controlar el nivel de poder que puede alcanzar una IA, no intenta controlar qué hará exactamente la IA e incluso no intenta necesariamente evitar una posible toma de control. Dado que los laboratorios anticipan que no podrán controlar la IA superinteligente que están creando, aceptan que dicha IA actuará de forma autónoma e imparable, pero tienen como objetivo hacer que actúe según nuestros valores. Como afirma Richard Ngo, un destacado investigador en alineación que trabaja en OpenAI, "dudo que podamos asegurar todos y cada uno de los entornos de implementación contra el total de poder intelectual de una IA superinteligente." Sin embargo, existen problemas importantes con su enfoque de alineación, tanto fundamental como técnicamente.

¿Qué valores debería tener una IA?

Fundamentalmente, no hay acuerdo sobre cuáles son nuestros valores. Lo que el fundador de OpenAI, Sam Altman, quiere que haga una superinteligencia podría ser completamente diferente de lo que un trabajador textil en Bangladesh quisiera que hiciera. La agregación de preferencias humanas siempre ha sido un tema difícil incluso antes de la IA, pero se volverá aún más complicado cuando tengamos una superinteligencia que pueda implementar rápidamente y a nivel global los deseos de un puñado de directores ejecutivos. La democracia, aunque imperfecta, ha sido la mejor solución que hemos encontrado hasta ahora para la agregación de valores. Sin embargo, no está claro si nuestra combinación actual de sistemas políticos nacionales puede controlar una IA todopoderosa. De hecho, no está claro si alguna organización o sistema estaría a la altura de la tarea.

Además de la discrepancia en los valores actuales, los seres humanos históricamente no hemos sido muy buenos prediciendo las externalidades futuras de las nuevas tecnologías. La crisis climática, por ejemplo, puede considerarse como un resultado imprevisto de tecnologías como el vapor y los motores de combustión interna. La tecnología cada vez más poderosa tiene el potencial de crear externalidades cada vez mayores. Es imposible prever cuáles serán los efectos negativos de implementar realmente alguna interpretación de los valores actuales de la humanidad. Podrían hacer que el cambio climático parezca insignificante en comparación.

Existen más problemas fundamentales sin resolver en cuanto a la alineación de una superinteligencia, pero actualmente, las compañías de IA ni siquiera llegan tan lejos. Parece que incluso lograr que las actuales redes neuronales grandes hagan consistentemente lo que cualquiera desea es un problema técnico que actualmente no podemos resolver. A esto se le llama desalineación interna y ya se ha observado en la IA actual: el modelo persigue el objetivo equivocado cuando se libera en el mundo real después de ser entrenado con un conjunto de datos limitado. Para una superinteligencia, esto podría tener un resultado catastrófico. Según el reciente documento de OpenAI sobre la gobernanza de la superinteligencia, este problema es una "cuestión de investigación abierta". Pero no se preocupen: dicen que están "poniendo mucho esfuerzo" en ello.

Lee más: La carrera armamentista de la IA está cambiando todo

Aunque personas como Altman se preocupen por las amenazas existenciales de la superinteligencia, la dinámica actual del mercado de los laboratorios de IA en competencia no incentiva la seguridad. El modelo GPT-4 construido por OpenAI fue probado y ajustado durante siete meses antes de hacerse público junto con un informe detallado sobre su seguridad. Contrario a los esfuerzos de seguridad de OpenAI, Google lanzó su modelo competidor PaLM 2 solo unos meses después, sin mencionar pruebas de seguridad similares. Ahora, incluso modelos de código abierto como Orca tienen un rendimiento equiparable al de ChatGPT, sin ningún análisis de seguridad. La carrera es frenética, lo que empuja a estas empresas a asumir más riesgos para mantenerse a la vanguardia. El alcance de estos riesgos es gigantesco. Como Jaan Tallinn, inversionista del importante laboratorio de IA Anthropic, afirma: "No he conocido a nadie en los laboratorios de IA que diga que el riesgo [de entrenar un modelo de próxima generación] sea inferior al 1% de hacer estallar el planeta".

Seamos claros: continuar el desarrollo de IA arriesgado y, eventualmente, someterse a una explosión de inteligencia que conduzca a una superinteligencia incontrolable es una idea terrible. No seremos capaces de navegarlo de manera segura. Nos faltan las soluciones técnicas, la coordinación, la perspicacia, la sabiduría y la experiencia para hacer algo tan complejo correctamente en el primer intento. Como seres humanos, somos buenos resolviendo problemas mediante procesos de prueba y error en los que tenemos muchos intentos. Pero en el caso de una explosión de inteligencia, no podemos usar esta estrategia, ya que la primera prueba de superinteligencia descontrolada podría ser desastrosa.

Por qué deberíamos pausar el desarrollo de la IA

Entonces, ¿cuál es la alternativa? Una pausa en la IA. Esto significaría que los gobiernos prohíban entrenar cualquier modelo de IA con capacidades que probablemente superen a GPT-4. Esto se puede determinar examinando la cantidad de cálculos necesarios para el entrenamiento, corrigiéndolos a lo largo del tiempo debido a mejoras en la eficiencia algorítmica. Estos modelos líderes solo pueden ser entrenados en grandes empresas de IA o centros de datos, lo que hace que sea realista hacer cumplir una pausa de este tipo.

Dado que los laboratorios líderes se encuentran actualmente en los Estados Unidos y en el Reino Unido, implementar una pausa a nivel nacional en esos dos países se puede hacer de manera muy rápida. A medio plazo, la dinámica competitiva entre naciones requerirá legislación y colaboración internacional, donde una agencia internacional de IA ayudaría. El Reino Unido ya tiene planes de organizar una cumbre sobre seguridad de IA en otoño, que sería un momento adecuado para firmar un tratado que implemente una pausa internacional en la IA. Excluir a países importantes, especialmente China, de una cumbre de este tipo podría no ser sabio, ya que también se necesitarán a mediano plazo. A largo plazo, la regulación de hardware, como asegurarse de que el nuevo hardware de consumo no se pueda utilizar para entrenamiento de IA a gran escala, mientras se monitorean de cerca todos los hardwares que sí se pueden utilizar, es una opción prometedora para hacer cumplir prácticamente una pausa. La investigación sobre este tema debe acelerarse rápidamente para llegar a soluciones robustas e implementables.

El desarrollo adicional de IA solo puede continuar después de que las autoridades reguladoras estén convencidas de que entrenar y desplegar un determinado modelo de IA no representará un riesgo de explosión de inteligencia incontrolable o un escenario de toma de control. Los efectos de segundo orden, como el hecho de hacer que el desarrollo de código abierto difícil de controlar sea más fácil, deben tenerse en cuenta en dichas decisiones.

Lee más: Lo que debes saber sobre Claude 2, el rival de ChatGPT de Anthropic

Continuar más allá de la línea roja, y así arriesgar una explosión de inteligencia o una toma de control, solo debería permitirse después de cumplir con los requisitos más estrictos. En primer lugar, el problema de alineación técnica debería resolverse de manera decisiva. Otros problemas importantes, como la agregación de los diferentes sistemas de valores de la humanidad, la limitación de externalidades imprevistas y muchos más, también deberán abordarse.

Una pausa puede parecer irrealista para algunos. Podrían decir que no podemos detener el progreso tecnológico por un escenario especulativo, que las fuerzas del mercado son demasiado fuertes para contrarrestar, o que los países opuestos nunca pueden coordinarse. Pero debemos tener en cuenta que, como sociedad, apenas hemos comenzado a asimilar la verdad: estamos arriesgando la extinción humana aquí. El riesgo existencial de la IA aún no se toma tan en serio como debería. Pero eso está cambiando. Destacados académicos de la IA, como los "padres de la IA" Geoffrey Hinton y Yoshua Bengio, han emitido advertencias públicas sobre el riesgo existencial de la IA, porque vieron que la tecnología se volvía más capaz. Es poco probable que este proceso se detenga: las capacidades de la IA seguirán creciendo y cada vez más líderes de debate sonarán las alarmas. Cuando tomemos plena conciencia de nuestra situación, las medidas que puedan parecer irrealistas en este momento podrían ganar rápidamente apoyo.

Como humanidad, nos daremos cuenta de la situación en la que nos encontramos. Nos uniremos y encontraremos una solución, como siempre lo hemos hecho. Y, antes de lo que pensamos, implementaremos una Pausa en la IA.

Contáctanos en [email protected].