Estaba viendo Oppenheimer en un cine lleno el martes, cuando una escena de la película biográfica de Christopher Nolan me hizo establecer un sombrío paralelismo con ChatGPT. Me di cuenta de que es posible que no tengamos el lujo de saber cuándo el software generativo de IA se vuelva consciente. Cuando una futura variante de ChatGPT, o un competidor, despierte, es posible que estemos completamente desprevenidos.
Tecnología. Entretenimiento. Ciencia. Tu bandeja de entrada. Regístrate para recibir las noticias tecnológicas y de entretenimiento más interesantes que hay.
Al registrarme, acepto los Términos de Uso y he revisado el Aviso de Privacidad.
Esa es una de las preocupaciones actuales en todo el mundo, que la IA conduzca a algún tipo de futuro apocalíptico. O que conduzca de alguna manera a la extinción de la raza humana.
Antes de continuar, quiero advertirte que a continuación encontrarás spoilers de Oppenheimer. Deja de leer aquí si aún no has visto la película.
Recientemente dije que la mayoría de estas preocupaciones sobre el desarrollo de la IA ChatGPT están exageradas y probablemente infundadas. Algunas de las voces que advierten sobre los peligros de la IA son mentes brillantes que la desarrollaron. No podemos detener el desarrollo de la IA incluso si queremos. A diferencia de las armas nucleares, cualquier persona puede hacer avances revolucionarios en IA desde la comodidad de su hogar.
De cierta manera, estas advertencias sobre la IA son similares a las preocupaciones de J. Robert Oppenheimer sobre las armas nucleares. Sabes, después de que él las creó y las utilizó con éxito como armas de destrucción masiva. Él encabezó los esfuerzos para desarrollar la bomba atómica de Estados Unidos y solo entonces abogó por la necesidad de regular el desarrollo de armas nucleares.
Oppenheimer tenía razones para preocuparse después de presenciar la devastación de Hiroshima y Nagasaki. La IA no ha matado a más de 200.000 personas como lo hicieron esas bombas atómicas. Aparentemente, no hay razón para comparar la IA con la amenaza de una guerra nuclear.
Después de ver la película biográfica de Nolan, no hay motivos para simpatizar con el renombrado físico. Sí, intentó arrepentirse, y había poderes más grandes en juego que realmente controlaban el destino de la investigación de la bomba atómica. Si se hubiera retirado antes del 6 de agosto de 1945, alguien más habría ocupado su lugar. Todo era inevitable en ese momento. Y fue una carrera entre Estados Unidos y los nazis para fabricar la bomba.
¿Cómo se relaciona Oppenheimer con la IA, como ChatGPT? Bueno, en algún momento de la película, Oppenheimer (interpretado por Cillian Murphy) se sorprende al enterarse de que la bomba podría provocar una reacción química descontrolada que encendería la atmósfera.

La primera detonación nuclear podría destruir todo el mundo. Si los cálculos son correctos, Estados Unidos tendría que revelar su descubrimiento a los nazis y dejarles claro que si alguien utiliza una sola bomba atómica, podría matar toda vida en la Tierra.
Esa fue una escena climática, pero dado que la película está basada en eventos reales, todo el público sabía que esos cálculos resultarían incorrectos. El mundo no terminó cuando Estados Unidos realizó la prueba nuclear Trinity. Las consecuencias de la explosión cubrieron casi todo Estados Unidos, pero no mataron al mundo.
Un científico diferente luego verificó los cálculos y encontró que la posibilidad de que una bomba atómica destruya el mundo entero era casi cero, aunque no absolutamente cero. Pero hasta esa prueba Trinity, Oppenheimer y su equipo sabían que había un riesgo teórico de que el mundo se incendiara.
Eso queda claro unos años más tarde, justo antes de la prueba Trinity. Justo antes de la explosión, Oppenheimer informa a Leslie Groves (Matt Damon) que hay una posibilidad no nula de que hagan explotar el mundo entero. Ahí es cuando hice la conexión con ChatGPT.
El equipo de Oppenheimer sabía que existía una posibilidad teórica de que la reacción en cadena encendiera la atmósfera y destruyera la vida en este planeta. La única forma de demostrar que el mundo sobreviviría era detonar realmente la primera arma nuclear.
La escena de Murphy-Damon fue parte de uno de los avances más recientes de la película (ver arriba), pero solo causa impacto cuando ves la película, ya que tienes el contexto de esos comentarios.
Con productos similares a ChatGPT, los científicos de inteligencia artificial nos acercarán más a una inteligencia artificial consciente. La Inteligencia General Artificial (AGI) de la que tanto hemos oído hablar será indistinguible de los humanos. Solo cuando llegue la AGI, existirá el riesgo de que la inteligencia artificial destruya a la humanidad. Bueno, será no nulo.
Pero existe la posibilidad de que nunca sepamos el momento exacto en que la AGI aparezca. Puede sonar como un escenario al estilo de Matrix/Terminator, pero ¿qué pasa si la AGI es tan inteligente que ocultará su inteligencia a los humanos? Perderemos la oportunidad de desactivarla antes de que se propague y sea imparable.
No digo que debamos detener o reducir el desarrollo de la inteligencia artificial ni que dejaré de usar productos similares a ChatGPT. Deseo que en un futuro cercano de la informática haya una inteligencia artificial mejor y más personal disponible. Al igual que el equipo de Oppenheimer no habría detenido la prueba Trinity, no creo que los investigadores de inteligencia artificial deban o vayan a detener la creación de mejores software de inteligencia artificial.
Los científicos pueden ser cautelosos. Pero también son curiosos y desean ver si sus teorías pueden hacerse realidad. Ya sea una bomba atómica que pueda matar a cientos de miles de personas en pocos minutos o una inteligencia artificial avanzada que pueda manipular y engañar.
Solo digo que después de ver a Oppenheimer, me di cuenta de que la inteligencia artificial podría ser mucho más peligrosa que la bomba nuclear. Pero es posible que nunca tengamos ese momento de claridad en el que alguien le diga a otro que encender un interruptor de inteligencia artificial para la AGI podría llevar a la extinción de la humanidad. Incluso si lo hacemos, seguirán encendiendo la AGI.
Lamentablemente, si la AGI destruye el mundo, nunca obtendremos una biografía de Nolan que cuente la historia.
No te lo pierdas: Rumores sobre el regreso de Tobey Maguire en Spider-Man 4 no tienen sentido