Podemos considerar nuestro tiempo como el momento en que la civilización fue transformada, tal como lo fue por el fuego, la agricultura y la electricidad. En 2023, aprendimos que una máquina aprendió a hablar con los humanos como un igual, es decir, con creatividad, verdad, errores y mentiras. La tecnología, conocida como un chatbot, es solo uno de los avances recientes en inteligencia artificial: máquinas que pueden aprender habilidades sobrehumanas por sí mismas. En abril, exploramos lo que viene a continuación en Google, líder en este nuevo mundo. El CEO Sundar Pichai nos dijo que la IA será tan buena o tan malvada como permita la naturaleza humana. Según él, la revolución se acerca más rápido de lo que crees.
Scott Pelley: ¿Crees que la sociedad está preparada para lo que viene?
Sundar Pichai: Sabes, lo veo desde dos perspectivas. Por un lado, pienso que no, porque la velocidad a la que podemos pensar y adaptarnos como instituciones de la sociedad, en comparación con la velocidad a la que evoluciona la tecnología, parece haber una discrepancia. Por otro lado, en comparación con cualquier otra tecnología, he visto a más personas preocupadas por ello en las etapas tempranas de su ciclo de vida. Así que me siento optimista. Cada vez más personas están empezando a preocuparse por las implicaciones, y por lo tanto, las conversaciones también están comenzando de manera seria.
Scott Pelley con Sundar Pichai, CEO de Google. 60 minutos. Nuestras conversaciones con Sundar Pichai de 50 años de edad comenzaron en el nuevo campus de Google en Mountain View, California. Funciona con un 40% de energía solar y recoge más agua de la que utiliza, una tecnología de vanguardia que Pichai no podía haber imaginado cuando crecía en India sin un teléfono en casa.
Sundar Pichai: Estuvimos en una lista de espera para conseguir un teléfono de disco durante unos cinco años. Finalmente, llegó a casa y todavía lo recuerdo vívidamente. Cambió nuestras vidas. Para mí, fue el primer momento en el que entendí el poder de tener acceso a la tecnología y probablemente me llevó a hacer lo que hago hoy en día.
Lo que ha estado haciendo, desde 2019, es liderar tanto Google como su empresa matriz, Alphabet, valoradas en $1,5 billones. A nivel mundial, Google controla el 90% de las búsquedas en internet y el 70% de los teléfonos inteligentes. Sin embargo, su dominio fue desafiado el pasado febrero cuando Microsoft presentó su nuevo chatbot. En una carrera por el dominio de la IA, en marzo, Google lanzó su versión llamada Bard.
Sissie Hsiao: Su propósito es ayudarte a generar ideas, crear contenido, como un discurso, una entrada de blog o un correo electrónico.
Nos presentaron a Bard a través de la Vicepresidenta de Google Sissie Hsiao y el Vicepresidente Senior James Manyika. Lo primero que aprendimos fue que Bard no busca respuestas en internet, como lo hace la búsqueda de Google.
- ¿Cómo ha evolucionado el lema de Google "No ser malvado" en la era de la IA?
Sissie Hsiao: Así que quería tomar inspiración de algunos de los mejores discursos en el mundo...
Las respuestas de Bard provienen de un programa autónomo que se enseñó en su mayoría a sí mismo. Nuestra experiencia fue desconcertante.
Scott Pelley: Confuso, absolutamente confuso.
Bard parecía poseer el conocimiento humano en su totalidad...
...con microchips que son más de 100.000 veces más rápidos que el cerebro humano. Le pedimos a Bard que resumiera el Nuevo Testamento. Lo hizo en cinco segundos y 17 palabras. Le pedimos que lo hiciera en latín, eso le tomó otros cuatro segundos. Luego, jugamos con una famosa historia corta de seis palabras, a menudo atribuida a Hemingway.
Scott Pelley: En venta. Zapatos de bebé. Nunca usados.
La única indicación que dimos fue "termina esta historia". En cinco segundos...
Scott Pelley: ¡Dios mío! Los zapatos eran un regalo de mi esposa, pero nunca tuvimos un bebé...
A partir de esa frase de seis palabras, Bard creó un relato profundamente humano con personajes inventados, incluyendo a un hombre cuya esposa no podía concebir y a un desconocido que sufría por un aborto espontáneo y anhelaba cerrar ese capítulo.
Scott Pelley: Rara vez me quedo sin palabras. No sé qué pensar de esto. Cuéntame esa historia...
Pedimos que la historia fuera en forma de verso. En cinco segundos, una máquina escribió un poema con una asombrosa perspicacia sobre el misterio de la fe. Bard escribió: "ella sabía que el alma de su bebé siempre estaría viva". La humanidad, a una velocidad superhumana, fue impactante.
Scott Pelley: ¿Cómo es esto posible?
James Manyika nos dijo que durante varios meses, Bard leyó casi todo en internet y creó un modelo de cómo es el lenguaje. En lugar de buscar, sus respuestas provienen de este modelo de lenguaje.
Se muestra a Bard en Google 60 Minutes. James Manyika: Por ejemplo, si te digo, Scott, "mantequilla de maní y..."
Scott Pelley: Jalea.
James Manyika: Exacto. Trata y aprende a predecir, en base a todo lo que ha aprendido, cuáles son las palabras más probables que seguirán. No busca información, solo predice la siguiente palabra.
Pero no se siente así. Le preguntamos a Bard por qué ayuda a las personas y respondió -cito- "porque me hace feliz".
Scott Pelley: Bard, a simple vista, parece que está pensando. Parece que está tomando decisiones. ¿No es así? Estas máquinas no son conscientes. No son conscientes de sí mismas.
James Manyika: No son conscientes. No son conscientes de sí mismas. Pueden exhibir comportamientos que parecen eso. Pero hay que tener en cuenta que han aprendido de nosotros. Nosotros, los seres conscientes, tenemos sentimientos, emociones, ideas, pensamientos, perspectivas. Reflejamos todo eso en libros, novelas, ficción. Entonces, cuando aprenden de eso, crean patrones a partir de eso. Así que no me sorprende que a veces el comportamiento que exhiben parezca que hay alguien detrás. No hay nadie ahí. No son seres conscientes.
James Manyika, nacido en Zimbabue y educado en Oxford, ocupa un nuevo puesto en Google: su trabajo consiste en pensar en cómo la inteligencia artificial y la humanidad pueden coexistir de la mejor manera posible.
James Manyika: La IA tiene el potencial de cambiar muchas formas en las que hemos pensado en la sociedad, en lo que podemos hacer, en los problemas que podemos resolver.
Pero la IA en sí misma planteará sus propios problemas. ¿Podría Hemingway escribir un mejor relato corto? Tal vez sí. Pero Bard puede escribir un millón antes de que Hemingway termine uno. Imagínense ese nivel de automatización en toda la economía.
Scott Pelley: Mucha gente puede ser reemplazada por esta tecnología.
James Manyika: Sí, hay ocupaciones laborales que empezarán a disminuir con el tiempo. Pero también habrá nuevas categorías de empleo que crecerán con el tiempo. Pero el cambio más grande se dará en los trabajos que se modificarán. Más de dos tercios verán cambios en sus definiciones. No desaparecerán, sino que cambiarán. Porque ahora están siendo asistidos por la IA y la automatización. Este es un cambio profundo que tiene implicaciones en las habilidades. ¿Cómo ayudamos a las personas a desarrollar nuevas habilidades? Aprender a trabajar junto a las máquinas. Y cómo complementa esto lo que las personas hacen actualmente.
James Manyika: 60 Minutos. Sundar Pichai: Esto va a impactar cada producto en cada compañía y por eso creo que es una tecnología muy, muy profunda. Así que, estamos en los primeros días.
Scott Pelley: Cada producto en cada compañía.
Sundar Pichai: Así es. La IA impactará todo. Por ejemplo, podrías ser un radiólogo. Sabes, si piensas en cinco a diez años en el futuro, tendrás un colaborador de IA contigo. Puede hacer triaje. Llegas en la mañana. Digamos que tienes 100 cosas que revisar. Puede decirte: "Estos son los casos más graves que debes revisar primero". O cuando estás revisando algo, puede aparecer y decir: "Puede que hayas pasado por alto algo importante". ¿Por qué no aprovecharíamos una asistente superpoderosa para ayudarte en todo lo que haces? Puedes ser un estudiante tratando de aprender matemáticas o historia. Y, ya sabes, tendrás algo que te ayude.
Preguntamos a Pichai qué trabajos se verían afectados, y él dijo, "trabajadores del conocimiento". Personas como escritores, contadores, arquitectos y, irónicamente, ingenieros de software. La IA también escribe código informático.
Hoy en día, Sundar Pichai camina por una línea estrecha. Algunos empleados han renunciado, algunos creen que el despliegue de IA de Google es demasiado lento, otros demasiado rápido. Hay algunos defectos graves. James Manyika preguntó a Bard sobre la inflación. Escribió un ensayo instantáneo de economía y recomendó cinco libros. Pero días después, lo verificamos. Ninguno de los libros es real. Bard inventó los títulos. Este rasgo muy humano, el error con confianza, se llama, en la industria, alucinación.
Scott Pelley: ¿Estás teniendo muchas alucinaciones?
Sundar Pichai: Sí, sabes, es de esperarse. Nadie en el campo ha resuelto aún los problemas de alucinación. Todos los modelos tienen este problema.
Scott Pelley: ¿Es un problema que se pueda resolver?
Sundar Pichai: Es motivo de un debate intenso. Creo que progresaremos.
Para ayudar a curar las alucinaciones, Bard presenta un botón de "Búscalo en Google" que lleva a una búsqueda tradicional. Google también ha incorporado filtros de seguridad en Bard para detectar cosas como discursos de odio y sesgos.
Scott Pelley: ¿Qué tan grande es el riesgo de la propagación de desinformación?
Sundar Pichai: La IA desafiará eso de una manera más profunda, el alcance de este problema será mucho mayor.
Problemas más grandes, dice, con noticias falsas y imágenes falsas.
Sundar Pichai: Con la IA será posible crear fácilmente un video donde pueda ser Scott diciendo algo, o yo diciendo algo, y nunca hemos dicho eso. Y podría parecer verídico. Pero ya sabes, a nivel social, puede causar mucho daño.
Scott Pelley: ¿Es Bard seguro para la sociedad?
Sundar Pichai: La forma en que lo hemos lanzado hoy, como un experimento de manera limitada, creo que sí. Pero todos debemos ser responsables en cada paso del camino.
Esta primavera pasada, Google lanzó una versión avanzada de Bard que puede escribir software y conectarse a internet. Google dice que está desarrollando modelos de IA aún más sofisticados.
Scott Pelley: ¿Están lanzándolo poco a poco para que la sociedad se acostumbre?
Sundar Pichai: Eso es una parte. Otra parte es para recibir comentarios de los usuarios. Y podemos desarrollar capas de seguridad más robustas antes de construir, antes de implementar modelos más capaces.
De los problemas de IA de los que hablamos, el más misterioso se llama propiedades emergentes. Algunos sistemas de IA están enseñándose habilidades que no se esperaba que tuvieran. Cómo sucede esto no está bien entendido. Por ejemplo, un programa de IA de Google se adaptó por sí mismo después de ser incitado en el lenguaje de Bangladesh, que no estaba entrenado para traducir.
James Manyika: Descubrimos que con muy poca incitación en bengalí, ahora puede traducir todo el bengalí. Así que ahora, de repente, tenemos un esfuerzo de investigación donde estamos intentando llegar a mil idiomas.
Sundar Pichai: Hay un aspecto de esto que nosotros llamamos, todos en el campo lo llamamos como "caja negra". Sabes, no se entiende completamente. Y no puedes decir exactamente por qué dijo esto, o por qué se equivocó. Tenemos algunas ideas, y nuestra capacidad para entender esto mejora con el tiempo. Pero ahí es donde está el estado del arte.
Scott Pelley: No entiendes completamente cómo funciona. ¿Y aún así, lo han dejado suelto en la sociedad?
Sundar Pichai: Sí. Permíteme decirlo así. No creo que entendamos completamente cómo funciona la mente humana tampoco.
Nos preguntamos si fue de esa caja negra de donde Bard sacó su historia corta que parecía tan desarmadoramente humana.
Scott Pelley: Habló sobre el dolor que sienten los humanos. Habló sobre la redención. ¿Cómo hizo todas esas cosas si solo está tratando de descubrir cuál es la próxima palabra correcta?
Sundar Pichai: He tenido estas experiencias hablando con Bard también. Hay dos puntos de vista de esto. Sabes, hay un grupo de personas que ven esto como, mira, son solo algoritmos. Solo repiten lo que han visto en línea. Luego está el punto de vista de que estos algoritmos están mostrando propiedades emergentes, ser creativos, razonar, planificar, y así sucesivamente, ¿verdad? Y personalmente, creo que debemos abordar esto con humildad. Parte de la razón por la que creo que es bueno que algunas de estas tecnologías estén saliendo es para que la sociedad, tú sabes, personas como tú y otros puedan procesar lo que está sucediendo. Y comenzamos esta conversación y debate. Y creo que es importante hacer eso.
La revolución en la inteligencia artificial es el centro de un debate que va desde aquellos que esperan que salve a la humanidad hasta aquellos que predicen la perdición. Google se encuentra en un punto intermedio optimista, introduciendo la IA de manera gradual para que la civilización se acostumbre a ella. Vimos lo que viene a continuación en el aprendizaje automático a principios de este año en el laboratorio de IA de Google en Londres, una empresa llamada Deepmind, donde el futuro luce algo así.
Scott Pelley: ¡Mira eso! ¡Dios mío!
Raia Hadsell: Tienen un buen tiro…
Scott Pelley: ¡Ah! ¡Gol!
Un partido de fútbol en DeepMind parece divertido, pero aquí está la cosa: los humanos no programaron estos robots para jugar, ellos aprendieron el juego por sí mismos.
Robots impulsados por IA se enseñaron a sí mismos a jugar fútbol.
60 Minutes
Raia Hadsell: Está encontrando diferentes estrategias interesantes, diferentes maneras de caminar, diferentes maneras de bloquear...
Scott Pelley: Y lo están haciendo, están anotando una y otra vez...
Raia Hadsell, vicepresidenta de Investigación y Robótica, nos mostró cómo los ingenieros utilizaron tecnología de captura de movimiento para enseñar al programa de IA cómo moverse como un humano. Pero en el campo de fútbol, a los robots solo se les dijo que el objetivo era anotar. El programa de autoaprendizaje pasó aproximadamente dos semanas probando diferentes movimientos. Descartó los que no funcionaban, se basó en los que sí y creó estrellas.
Y con la práctica, mejoran. Hadsell nos dijo que, independientemente de los robots, el programa de IA juega miles de partidos de los que aprende e inventa sus propias tácticas.
Raia Hadsell: Aquí pensamos que el jugador rojo va a atraparla. Pero en lugar de eso, solo la detiene, la devuelve, la pasa y luego va hacia la meta.
Scott Pelley: Y la IA descubrió cómo hacerlo por sí misma.
Raia Hadsell: Así es. Así es. Y lleva tiempo. Al principio, todos los jugadores corren tras el balón juntos como un grupo de niños de 6 años jugando por primera vez. Con el tiempo, lo que empezamos a ver es: "¿Ah, cuál es la estrategia? Tú vas tras el balón. Yo voy por aquí. O deberíamos pasarla. O debería bloquear mientras tú llegas a la meta". Así que vemos toda esa coordinación surgiendo en el juego.
Scott Pelley: Esto es muy divertido. Pero, ¿cuáles son las implicaciones prácticas de lo que estamos viendo aquí?
Raia Hadsell: Este es el tipo de investigación que eventualmente puede conducir a robots que puedan salir de las fábricas y trabajar en otros tipos de entornos humanos. Piensa en la minería, en trabajos de construcción peligrosos o en la exploración o recuperación de desastres.
Raia Hadsell está entre los 1,000 humanos en DeepMind. La empresa fue cofundada hace solo 12 años por el CEO Demis Hassabis.
Demis Hassabis 60 Minutes Demis Hassabis: Así que si pienso en 2010 cuando empezamos, nadie estaba haciendo IA. No pasaba nada en la industria. La gente solía rodar los ojos cuando les hablábamos, inversores, acerca de hacer IA. Así que, apenas podíamos juntar dos centavos para empezar, lo cual es una locura si piensas en los miles de millones que se invierten ahora en startups de IA.
Cambridge, Harvard, MIT, Hassabis tiene títulos en ciencias de la computación y neurociencia. Su doctorado es en imaginación humana. Y imagina esto, cuando tenía 12 años, en su grupo de edad, fue el campeón de ajedrez número dos en el mundo.
Fue a través de los juegos que llegó a la IA.
Demis Hassabis: Llevo décadas trabajando en IA, y siempre he creído que será la invención más importante que la humanidad nunca haya hecho.
Scott Pelley: ¿Superará el ritmo de cambio nuestra capacidad de adaptación?
Demis Hassabis: No lo creo. Creo que nosotros, ya sabes, somos una especie infinitamente adaptable. Mira hoy, usamos todos nuestros teléfonos inteligentes y otros dispositivos, y nos adaptamos sin esfuerzo a estas nuevas tecnologías. Y esto será otro de esos cambios así.
Uno de los mayores cambios en DeepMind fue el descubrimiento de que las máquinas de aprendizaje automático pueden ser creativas. Hassabis nos mostró un programa de juego que aprende. Se llama AlphaZero y creó una estrategia ganadora en el ajedrez que ningún humano había visto antes.
Scott Pelley: Pero esto es solo una máquina. ¿Cómo logra la creatividad?
Demis Hassabis: Juega contra sí misma decenas de millones de veces. Así que puede explorar partes del ajedrez que quizás los jugadores de ajedrez humanos y los programadores de computadoras de ajedrez no hayan pensado antes.
Scott Pelley: Nunca se cansa. Nunca tiene hambre. Solo juega ajedrez todo el tiempo.
Demis Hassabis: Sí. Es algo sorprendente de ver, porque en realidad pones en marcha a AlphaZero por la mañana y comienza a jugar al azar. Para la hora del almuerzo, ya sabes, puede vencerme y vencer a la mayoría de los jugadores de ajedrez. Y para la noche, es más fuerte que el campeón mundial.
Demis Hassabis vendió DeepMind a Google en 2014. Una de las razones fue obtener acceso a esto. Google tiene el enorme poder informático que la IA necesita. Este centro informático está en Pryor, Oklahoma. Pero Google tiene 23 de estos, lo que lo sitúa cerca de la cima en capacidad informática en el mundo. Esta es una de las dos mejoras que hacen que la IA sea ascendente ahora. Primero, la suma de todo el conocimiento humano está en línea, y segundo, la computación de fuerza bruta que "aproxima de manera muy suelta" las redes neuronales y talentos del cerebro.
Centro de datos de Google - 60 Minutos
Demis Hassabis: Cosas como la memoria, la imaginación, la planificación, el aprendizaje por refuerzo, todas estas son cosas que se conocen en cuanto a cómo lo hace el cerebro, y queríamos replicar algunas de esas cosas en nuestros sistemas de IA.
Estos son algunos de los elementos que llevaron al mayor logro de DeepMind hasta ahora: resolver un problema "imposible" en biología.
La mayoría de los sistemas de IA de hoy en día hacen una o tal vez dos cosas bien. Los robots de fútbol, por ejemplo, no pueden hacer una lista de compras, reservar tu viaje o conducir tu coche. El objetivo final es lo que se llama una inteligencia artificial general, una máquina de aprendizaje que pueda destacar en una amplia gama de habilidades.
Scott Pelley: ¿Una máquina así estaría consciente de sí misma?
Demis Hassabis: Esa es otra gran pregunta. Los filósofos aún no han llegado a una definición de la conciencia, pero si nos referimos a la autoconciencia y cosas así, creo que existe la posibilidad de que la IA algún día lo sea. Definitivamente no creo que lo sean en la actualidad. Pero creo que, nuevamente, esto es una de las fascinantes cosas científicas que vamos a descubrir en este camino hacia la IA.
Incluso inconsciente, la IA actual es sobrehumana en aspectos específicos.
De vuelta en California, vimos a ingenieros de Google enseñando habilidades que los robots practicarán continuamente por sí mismos.
Robot: Empuja el cubo azul hacia el triángulo azul.
Ellos comprenden las instrucciones...
Y aprenden a reconocer objetos.
Robot 106: ¿Qué te gustaría?
Scott Pelley: ¿Qué tal una manzana?
Ryan: ¿Qué tal una manzana?
Robot 106: En camino, te traeré una manzana.
Vincent Vanhoucke, director senior de Robótica, nos mostró cómo el Robot 106 fue entrenado con millones de imágenes...
Robot 106: Voy a recoger la manzana.
...y puede reconocer todos los objetos en una encimera llena.
Vincent Vanhoucke: Si podemos proporcionarle al robot una diversidad de experiencias, muchos objetos diferentes en diferentes situaciones, el robot mejora en cada uno de ellos.
Ahora que los humanos han alcanzado el fruto prohibido del conocimiento artificial...
Scott Pelley: Gracias.
...comenzamos el génesis de una nueva humanidad...
Scott Pelley: La IA puede utilizar toda la información del mundo. Lo que ningún humano podría tener en su mente. Y me pregunto si la humanidad se ve disminuida por esta enorme capacidad que estamos desarrollando.
James Manyika: Creo que las posibilidades de la IA no disminuyen a la humanidad de ninguna manera. Y de hecho, en ciertos aspectos, creo que nos plantean preguntas aún más profundas y trascendentales.
James Manyika de Google ve este momento como un punto de inflexión.
James Manyika: Creo que constantemente estamos añadiendo estas superpotencias o capacidades a lo que los humanos pueden hacer de manera que expande las posibilidades en lugar de limitarlas. No creo que disminuya a los humanos, pero sí plantea algunas preguntas realmente profundas. ¿Quiénes somos? ¿Qué valoramos? ¿En qué somos buenos? ¿Cómo nos relacionamos entre nosotros? Estas se vuelven preguntas muy, muy importantes que constantemente nos emocionan, pero también pueden resultar inquietantes.
Es un momento inquietante. Los críticos argumentan que la carrera hacia la IA se está produciendo demasiado rápido, mientras que la presión competitiva entre gigantes como Google y startups desconocidas está impulsando a la humanidad hacia el futuro, listos o no.
Sundar Pichai: Pero si nos fijamos en una perspectiva de 10 años, está muy claro para mí que tendremos alguna forma de inteligencia muy capaz que podrá hacer cosas asombrosas. Y necesitamos adaptarnos como sociedad para ello.
El CEO de Google, Sundar Pichai, nos dijo que la sociedad debe adaptarse rápidamente con regulaciones para la IA en la economía, leyes para castigar el abuso y tratados entre naciones para que la IA sea segura para el mundo.
Sundar Pichai: Estas son preguntas profundas. Y, sabes, esto es lo que llamamos "alineación". Una forma en que pensamos: ¿Cómo desarrollamos sistemas de IA que estén alineados con los valores humanos, incluyendo la moralidad? Por eso creo que el desarrollo de esto debe incluir no solo a los ingenieros, sino también a científicos sociales, éticos, filósofos, y así sucesivamente. Y creo que debemos ser muy reflexivos. Y creo que todas estas son cosas que la sociedad debe resolver a medida que avanzamos. No es decisión de una empresa.
Concluiremos con una nota que nunca antes había aparecido en 60 Minutos, pero que puede que escuches a menudo en la revolución de la IA. Lo anterior fue creado con un contenido 100% humano.

Producido por Denise Schrier Cetta y Katie Brennan. Productora asociada, Eliza Costas. Asociada de transmisión, Michelle Karim. Editado por Warren Lustig.