En marzo, una carta abierta del Future of Life Institute pidió una pausa en la investigación de la IA en modelos más grandes que GPT-4, que alimenta herramientas como ChatGPT. Los firmantes, que incluían algunos de los nombres más grandes de la tecnología y la academia, estipularon que, si una pausa no puede ser promulgada rápidamente, los gobiernos deben intervenir e imponer una moratoria. Algunos creen que esta carta fue solo una artimaña para llamar la atención y, en algunos casos, para estimular el interés en empresas comerciales. Sea cual sea la intención, el resultado ha sido una mayor confusión sobre el tema de la seguridad de la IA. En verdad, la demanda de dicha pausa es cuestionable y la pausa en sí misma es impráctica.

Sí, necesitamos tener una conversación sobria sobre las realidades y los riesgos de la inteligencia artificial. Pero aún así, examinemos el caso para una pausa y por qué en última instancia podría resultar insignificante o incluso contraproducente.

Las preocupaciones sobre OpenAI y su actual dominio en el espacio de la IA tienen sentido. Cuando se lanzó GPT-4 en marzo de 2023, gran parte de la transparencia que los investigadores habían llegado a esperar desapareció. OpenAI decidió mantener los detalles sobre conjuntos de datos, metodología, arquitectura e incluso el tamaño de GPT-4 fuera del alcance del público, citando preocupaciones de seguridad y ventaja competitiva. Pero GPT-4 no habría sido posible sin los muchos descubrimientos e innovaciones previamente compartidos abiertamente por los investigadores en el campo.

Aunque la carta pedía transparencia, detener la creación de modelos más poderosos sin una reversión de la decisión de OpenAI de mantener los detalles procesales dejaría a todos en la oscuridad dentro de seis meses desde ahora.

La carta abordó específicamente el uso malicioso de modelos de lenguaje, como su potencial para crear desinformación. En enero de 2023, publiqué una investigación sobre este mismo tema que concluyó que los modelos a la escala de GPT-3 ya pueden usarse para crear contenido diseñado con propósitos maliciosos, como phishing, noticias falsas, estafas y acoso en línea. Por lo tanto, detener la creación de GPT-5 no evitaría ninguno de esos usos indebidos.

Otra razón potencial para la pausa se derivó de preocupaciones sobre que los robots ganen verdadera inteligencia, lo que generaría temores de Skynet o algún otro resultado de ciencia ficción distópica. Un artículo publicado por Microsoft titulado "Sparks of Artificial General Intelligence: Early experiments with GPT-4" describía una serie de experimentos que ilustraban propiedades emergentes dentro del modelo que podrían considerarse un paso hacia la inteligencia mecánica.

Estos experimentos se realizaron en una versión interna del modelo GPT-4. Ese modelo no había pasado por el proceso de ajuste fino, un proceso por el cual un modelo se entrena para ser más seguro y más preciso. Sin embargo, los investigadores descubrieron que el modelo final, el que está disponible para el público, no se puede usar para reproducir todos los experimentos descritos en el artículo. Parece que el proceso de ajuste fino rompe de alguna manera el modelo, haciéndolo peor para aplicaciones donde se requiere creatividad e inteligencia.

Pero de nuevo, esos hechos serán difíciles de determinar sin acceso al modelo original. Podríamos estar cerca de desencadenar una verdadera inteligencia general artificial, pero nunca lo sabremos porque solo OpenAI tiene acceso a este modelo significativamente más capaz.

La carta también falla en reconocer los problemas relacionados con la IA que ya enfrentamos.

Los sistemas de aprendizaje automático ya están causando daño a la sociedad y se está haciendo poco al respecto. Se sabe que los algoritmos de recomendación que alimentan las redes sociales llevan a las personas al extremismo. También se han planteado muchas cuestiones obvias en torno a la discriminación algorítmica y la vigilancia predictiva. ¿Cómo podemos empezar a resolver los problemas a largo plazo relacionados con la IA si ni siquiera podemos abordar los problemas del mundo real con los que estamos tratando en este momento?

La carta afirma específicamente que "los sistemas potentes de IA deben desarrollarse solo cuando estamos seguros de que sus efectos serán positivos y sus riesgos serán administrables". Una de las formas de hacerlo se llama "alineación", un proceso que se describe más fácilmente como la creación de una conciencia artificial.

Pero dado que no siempre podemos ponerse de acuerdo sobre nuestros propios valores humanos, si esperamos que los humanos estén de acuerdo con los valores éticos que debería tener una IA, estamos en graves problemas. Y este esfuerzo es esencialmente lo que algunos del grupo que firmó la carta quieren que invirtamos: impartir las tres leyes de la robótica del autor Isaac Asimov para impedir que los robots dañen a los humanos. Si entiende la IA, entenderá por qué esto no es posible.

Pero todo el mundo sabe que no se puede detener la innovación, incluso si hay personas que abogan por la guerra cinética contra los científicos que construyen clusters de GPU. Incluso si todo el mundo acordara detener toda investigación sobre IA mediante amenaza de la fuerza, la tecnología seguiría avanzando. Los ordenadores eventualmente serán lo suficientemente potentes como para que las personas comunes puedan crear inteligencia artificial general en sus garajes. Y aunque estoy tan preocupado como la siguiente persona sobre los actores malintencionados que crean una IA malvada, pausar GPT-5 no afectará en lo más mínimo la probabilidad de que eso suceda. De hecho, más investigación en el alineamiento incluso podría proporcionar consejos y trucos adicionales para aquellos que buscan crear una IA malintencionada.

También hay un gran argumento para el optimismo sobre la superinteligencia. Sí, una IA malvada que mata a todos los humanos o los convierte en baterías es una gran trama para una película, pero no es una inevitabilidad.

Considera que el universo tiene más de 13 mil millones de años y probablemente alberga un número inimaginablemente grande de planetas habitables. Es probable que muchas civilizaciones alienígenas ya hayan alcanzado el punto en el que estamos hoy y se hayan preguntado acerca de la seguridad de la IA, tal como lo estamos haciendo ahora. Si la superinteligencia artificial conduce inevitablemente a la extinción de su especie anfitriona y luego se propaga de manera exponencial en todo el universo, ¿no deberíamos todos estar muertos ya?

El Congreso debería apoyar una nueva estrategia para aprobar medicamentos que salvan vidas ¿Podrían funcionar los centros de prevención de sobredosis en los Estados Unidos? Descubrámoslo Le pedí a GPT-4 que presentara teorías sobre este dilema.

Aparte de otras explicaciones obvias, como el hecho de que una superinteligencia errante quizás no nos haya alcanzado aún debido a las vastas distancias entre estrellas y galaxias, GPT-4 hizo una sugerencia interesante. Hipotetizó que la extinción de nuestra especie podría ser causada en última instancia por una guerra entre facciones humanas discutiendo sobre la seguridad de la IA.

Andy Patel es un investigador de WithSecure Intelligence. Se especializa en ingeniería rápida, aprendizaje por refuerzo, inteligencia de enjambre, PNL, algoritmos genéticos, vida artificial, ética de la IA y análisis de gráficos.