En junio de 2022, el ingeniero de Google Blake Lemoine captó la atención al afirmar que el chatbot LaMDA de la compañía había alcanzado la conciencia. Según Lemoine, el software tenía la capacidad de conversar como un niño precoz de siete años y debíamos suponer que también poseía una conciencia similar del mundo.
LaMDA, posteriormente lanzado al público como Bard, está impulsado por un "modelo de lenguaje grande" (LLM) del tipo que también constituye el motor del robot ChatGPT de OpenAI. Otras grandes empresas tecnológicas se están apresurando a implementar una tecnología similar.
Cientos de millones de personas han tenido la oportunidad de interactuar con los LLM, pero parece que pocos creen que sean conscientes. En lugar de eso, como expresó poéticamente la lingüista y científica de datos Emily Bender, son "loros estocásticos" que parlotean de manera convincente pero sin comprensión. Pero, ¿qué sucede con la siguiente generación de sistemas de inteligencia artificial (IA) y la siguiente después de esa?
Nuestro equipo de filósofos, neurocientíficos y científicos de la computación recurrió a las teorías científicas actuales sobre cómo funciona la conciencia humana para elaborar una lista de propiedades computacionales básicas que cualquier sistema hipotéticamente consciente probablemente necesitaría poseer. En nuestra opinión, ningún sistema actual se acerca siquiera al umbral de la conciencia; sin embargo, al mismo tiempo, no hay razón obvia por la cual los futuros sistemas no pudieran llegar a ser verdaderamente conscientes.
Encontrar indicadores
Desde que el pionero de la computación Alan Turing propuso su "Juego de la Imitación" en 1950, la capacidad de impersonar con éxito a un ser humano en una conversación se ha considerado a menudo como un indicador confiable de conciencia. Esto usualmente se debe a que la tarea parecía ser tan difícil que debía requerir conciencia.Sin embargo, al igual que la derrota del gran maestro Gary Kasparov por parte de la computadora de ajedrez Deep Blue en 1997, la fluidez conversacional de los LLM podría cambiar las reglas del juego. ¿Existe una manera fundamentada de abordar la pregunta de la conciencia de la IA que no dependa de nuestras intuiciones sobre lo que es difícil o especial en la cognición humana?
Nuestro reciente documento técnico tiene como objetivo hacer precisamente eso. Comparamos las teorías científicas actuales sobre lo que hace que los humanos sean conscientes para elaborar una lista de "propiedades indicadoras" que luego podrían aplicarse a los sistemas de IA.
No creemos que los sistemas que poseen las propiedades indicadoras sean definitivamente conscientes, pero cuanto más indicadores haya, más seriamente debemos tomar las afirmaciones de la conciencia de la inteligencia artificial.
Los procesos computacionales detrás de la conciencia
¿Qué tipo de indicadores buscábamos? Evitamos los criterios de comportamiento evidentes, como la capacidad de mantener conversaciones con las personas, porque tienden a ser tanto centrados en los humanos como fáciles de falsificar.En su lugar, examinamos teorías sobre los procesos computacionales que respaldan la conciencia en el cerebro humano. Estas teorías nos pueden hablar sobre el tipo de procesamiento de información necesario para respaldar la experiencia subjetiva.
"Teorías de espacio de trabajo global", por ejemplo, postulan que la conciencia surge de la presencia de un cuello de botella de capacidad limitada que recopila información de todas las partes del cerebro y selecciona información para hacerla globalmente disponible. Las "teorías de procesamiento recurrente" enfatizan el papel de la retroalimentación de los procesos posteriores a los anteriores.
Cada teoría sugiere a su vez indicadores más específicos. Nuestra lista final contiene 14 indicadores, cada uno de ellos se centra en un aspecto de cómo funcionan los sistemas en lugar de cómo se comportan.
No hay razón para pensar que los sistemas actuales sean conscientes
¿Cómo se comparan las tecnologías actuales? Nuestro análisis sugiere que no hay razón para pensar que los sistemas de IA actuales sean conscientes.Algunos cumplen con algunos de los indicadores. Los sistemas que utilizan la arquitectura del transformador, un tipo de modelo de aprendizaje automático detrás de ChatGPT y herramientas similares, cumplen con tres de los indicadores de "espacio de trabajo global", pero carecen de la capacidad crucial para la retransmisión global. También no cumplen con la mayoría de los demás indicadores.
Entonces, a pesar de las impresionantes habilidades conversacionales de ChatGPT, probablemente no haya nadie en su interior. Otras arquitecturas cumplen en el mejor de los casos con algunos de los criterios.
Leer más: No todo lo que llamamos IA es realmente 'inteligencia artificial'. Esto es lo que necesitas saber
La mayoría de las arquitecturas actuales solo cumplen con algunos de los indicadores como máximo. Sin embargo, para la mayoría de los indicadores, hay al menos una arquitectura actual que los cumple.
Esto sugiere que no hay barreras técnicas evidentes, en principio, para construir sistemas de IA que cumplan con la mayoría o todos los indicadores.
Probablemente sea una cuestión de cuándo, en lugar de si se construirá algún sistema así. Por supuesto, todavía quedará muchas preguntas por responder cuando eso suceda.
Más allá de la conciencia humana
Las teorías científicas que analizamos (¡y los autores del artículo!) no siempre están de acuerdo entre sí. Utilizamos una lista de indicadores en lugar de criterios estrictos para reconocer ese hecho. Esto puede ser una metodología poderosa ante la incertidumbre científica.Nos inspiramos en debates similares sobre la conciencia animal. La mayoría de nosotros creemos que al menos algunos animales no humanos son conscientes, a pesar de que no pueden conversar con nosotros sobre lo que sienten.
Un informe de 2021 de la London School of Economics que argumenta que los cefalópodos como los pulpos probablemente sienten dolor fue fundamental para cambiar la política ética animal en el Reino Unido. Un enfoque en características estructurales tiene la consecuencia sorprendente de que incluso algunos animales simples, como los insectos, podrían poseer una forma mínima de conciencia.
Nuestro informe no hace recomendaciones sobre qué hacer con la IA consciente. Esta pregunta se volverá más acuciante a medida que los sistemas de IA inevitablemente se vuelvan más poderosos y se desplieguen más ampliamente.
Nuestros indicadores no serán la última palabra, pero esperamos que se conviertan en el primer paso para abordar esta difícil cuestión de manera científicamente fundamentada.