Cientos de líderes de la industria tecnológica, académicos y otras figuras públicas firmaron una carta abierta advirtiendo que la evolución de la inteligencia artificial (IA) podría causar un evento de extinción, y que controlar la tecnología debería ser una prioridad global.
“Mitigar el riesgo de extinción por IA debería ser una prioridad global junto a otros riesgos a escala social como pandemias y guerra nuclear”, dice la declaración publicada por el Centro de Seguridad de la IA con sede en San Francisco.
La breve declaración en la carta se lee casi como una disculpa por la tecnología, sobre la cual sus creadores ahora se unen para advertirle al mundo.
Irónicamente, los signatarios más prominentes en la parte superior de la carta incluyen a Sam Altman, CEO de OpenAI, la compañía que creó el chatbot generativo de IA muy popular, ChatGPT, así como a Kevin Scott, CTO de Microsoft, el mayor inversor de OpenAI. Además, varios fundadores y ejecutivos de OpenAI se unieron a ejecutivos, ingenieros y científicos del laboratorio de investigación en IA de Google, DeepMind.
Geoffrey Hinton, considerado el padre de la IA por sus contribuciones a la tecnología en los últimos 40 años, también firmó la carta de hoy. Durante una sesión de preguntas y respuestas en el MIT a principios de este mes, Hinton se atrevió a decir que los humanos no son más que una fase transitoria en el desarrollo de la IA. Además, dijo que estaba perfectamente razonable en los años 70 y 80 investigar cómo hacer redes neuronales artificiales. Pero la tecnología actual es como si los ingenieros genéticos decidieran mejorar a los osos grizzly, permitiéndoles hablar inglés y mejorando su "coeficiente intelectual a 210".
Sin embargo, Hinton dijo que no sentía remordimientos por haber sido instrumental en la creación de la IA. “No era realmente previsible - esta etapa no era previsible. Hasta hace muy poco, pensé que esta crisis existencial estaba muy lejos. Así que realmente no tengo ningún remordimiento por lo que hice”, dijo Hinton.
A principios de este mes, los líderes del Grupo de los Siete (G7) naciones llamaron a la creación de normas técnicas para controlar la inteligencia artificial (IA), diciendo que la IA ha superado la supervisión de seguridad y protección. Audiencias del Senado de EE. UU. A principios de este mes, que incluyó testimonios del CEO de OpenAI, Altman, también ilustraron muchos peligros claros y presentes que emergen de la evolución de la IA.
“La declaración firmada por el Centro de Seguridad de la IA es realmente ominosa y sin precedentes en la industria tecnológica. ¿Alguna vez has oído hablar de emprendedores tecnológicos que le dicen al público que la tecnología en la que trabajan puede borrar a la raza humana si se deja sin control?” dijo Avivah Litan, vicepresidenta y analista distinguida en Gartner. “Pero siguen trabajando en ello debido a las presiones competitivas”.
Aunque no sea tan séria a la extinción, Litan señaló además que las empresas también enfrentan riesgos "inminentes" a corto plazo por el uso de la IA. “Involucran riesgos en la desinformación y la manipulación social que escalarán mucho más rápido de lo que hemos visto en la última década con las redes sociales y el comercio en línea”, dijo. “Estos riesgos a corto plazo pueden salir fácilmente de control si se dejan sin control”.
Los riesgos a corto plazo planteados por la IA se pueden abordar y mitigar con barreras de protección y soluciones técnicas. Los riesgos existenciales a largo plazo se pueden abordar a través de la cooperación y regulación gubernamental internacional, señaló.
“Los gobiernos se mueven muy lentamente, pero la innovación técnica y la solución, donde es posible, se mueven a la velocidad del rayo, como cabría esperar”, dijo Litan. “Así que, está en el aire qué nos espera en el futuro”.
La carta de hoy sigue a otra similar lanzada en marzo por el Future of Life Institute. Esa carta, que fue firmada por el cofundador de Apple, Steve Wozniak, el CEO de SpaceX, Elon Musk, y casi 32.000 personas más, pidió una pausa de seis meses en el desarrollo de ChatGPT para permitir que se pongan en marcha mejores controles.
La carta de marzo pedía supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidad informática; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y para rastrear las fugas del modelo; un ecosistema de auditoría y certificación sólido; responsabilidad por el daño causado por la IA; financiación pública sólida para la investigación técnica sobre la seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas interrupciones económicas y políticas (especialmente de la democracia) que causará la IA.
Dan Hendrycks, director del Centro de Seguridad de la IA, escribió en un hilo de seguimiento de tweets hoy que hay “muchas formas en que el desarrollo de la IA podría salir mal, al igual que las pandemias pueden surgir a partir de la mala gestión, los malos sistemas de salud pública, la fauna, etc. Considere compartir sus pensamientos iniciales sobre el riesgo de la IA con un hilo de Twitter o publicación para ayudar a comenzar la conversación y para que podamos explorar colectivamente estas fuentes de riesgo”.
Hendrycks también citó a Robert Oppenheimer, físico teórico y padre de la bomba atómica: “Sabíamos que el mundo no sería lo mismo”. Sin embargo, Hendrycks no mencionó que la bomba atómica fue creada para detener la tiranía que el mundo enfrentaba por el dominio de los poderes del Eje de la Segunda Guerra Mundial.
El Centro de Seguridad de la IA es una organización de investigación sin fines de lucro con sede en San Francisco cuya misión declarada es “asegurar el desarrollo y aplicación seguros de la IA”.
“Creemos que la inteligencia artificial tiene el potencial de beneficiar profundamente al mundo, siempre y cuando podamos desarrollarla y usarla de manera segura”, afirma la página web del grupo.
Derechos de autor © 2023 IDG Communications, Inc.