Los seres humanos tienen la capacidad de aprender un nuevo concepto y luego usarlo inmediatamente para comprender usos relacionados de ese concepto, una vez que los niños saben cómo "saltar", entienden lo que significa "saltar dos veces alrededor de la habitación" o "saltar con las manos arriba".
¿Pero las máquinas son capaces de este tipo de pensamiento? A fines de la década de 1980, Jerry Fodor y Zenon Pylyshyn, filósofos y científicos cognitivos, postularon que las redes neuronales artificiales, los motores que impulsan la inteligencia artificial y el aprendizaje automático, no son capaces de hacer estas conexiones, conocidas como "generalizaciones compositivas". Sin embargo, en las décadas siguientes, los científicos han estado desarrollando formas de inculcar esta capacidad en las redes neuronales y las tecnologías relacionadas, pero con éxito variado, manteniendo así vivo este debate de décadas.
Investigadores de la Universidad de Nueva York y la Universidad Pompeu Fabra de España han desarrollado una técnica, informada en la revista Nature, que mejora la capacidad de estas herramientas, como ChatGPT, para hacer generalizaciones compositivas. Esta técnica, Meta-aprendizaje para Composicionalidad (MLC), supera en rendimiento a los enfoques existentes y es igual, y en algunos casos mejor, que el rendimiento humano. MLC se centra en entrenar a las redes neuronales, los motores que impulsan ChatGPT y las tecnologías relacionadas para el reconocimiento de voz y el procesamiento del lenguaje natural, para que sean mejores en la generalización compositiva a través de la práctica.
Los desarrolladores de los sistemas existentes, incluidos los modelos de lenguaje grandes, han esperado que la generalización compositiva surja de los métodos de entrenamiento estándar, o han desarrollado arquitecturas especiales con el fin de lograr estas habilidades. MLC, en cambio, muestra cómo practicar explícitamente estas habilidades permite que estos sistemas desbloqueen nuevos poderes, señalan los autores.
"Durante 35 años, investigadores en ciencias cognitivas, inteligencia artificial, lingüística y filosofía han debatido si las redes neuronales pueden lograr una generalización sistemática similar a la humana", dice Brenden Lake, profesor asistente en el Centro de Ciencia de Datos y el Departamento de Psicología de la NYU y uno de los autores del artículo. "Hemos demostrado, por primera vez, que una red neuronal genérica puede imitar o superar la generalización sistemática humana en una comparación directa".
Al explorar la posibilidad de fortalecer el aprendizaje compositivo en las redes neuronales, los investigadores crearon MLC, un procedimiento de aprendizaje novedoso en el que una red neuronal se actualiza continuamente para mejorar sus habilidades a lo largo de una serie de episodios. En un episodio, MLC recibe una nueva palabra y se le pide que la use de manera compositiva, por ejemplo, tomar la palabra "saltar" y luego crear nuevas combinaciones de palabras, como "saltar dos veces" o "saltar dos veces a la derecha". Luego, MLC recibe un nuevo episodio con una palabra diferente, y así sucesivamente, mejorando cada vez más las habilidades compositivas de la red.
Para probar la efectividad de MLC, Lake, co-director de la Iniciativa Mente, Cerebro y Máquinas de la NYU, y Marco Baroni, investigador del Instituto Catalán de Investigación y Estudios Avanzados y profesor en el Departamento de Traducción y Ciencias del Lenguaje de la Universidad Pompeu Fabra, llevaron a cabo una serie de experimentos con participantes humanos que fueron idénticos a las tareas realizadas por MLC.
Además, en lugar de aprender el significado de palabras reales, términos que los humanos ya conocerían, también tuvieron que aprender el significado de términos sin sentido (por ejemplo, "zup" y "dax") según lo definido por los investigadores y saber cómo aplicarlos de diferentes maneras. MLC tuvo un rendimiento tan bueno como los participantes humanos, e incluso en algunos casos, mejor que sus contrapartes humanas. MLC y las personas también superaron a ChatGPT y GPT-4, los cuales, a pesar de sus sorprendentes habilidades generales, mostraron dificultades con esta tarea de aprendizaje.
"Los modelos de lenguaje grandes, como ChatGPT, todavía tienen dificultades con la generalización compositiva, aunque han mejorado en los últimos años", observa Baroni, miembro del grupo de investigación en Lingüística Computacional y Teoría Lingüística de la Universidad Pompeu Fabra".
Pero creemos que MLC puede mejorar aún más las habilidades de composición de los modelos de lenguaje grandes".