Los recientes avances en IA y el lanzamiento de ChatGPT han generado un nuevo interés en la IA como herramienta. Los LLM agentizados son el último intento de crear IA altamente especializada y evitar que se vuelvan rebeldes. La IA está muy de moda hoy en día, con personas y organizaciones apresurándose por implementar o utilizar la IA para aumentar la eficiencia y obtener beneficios. Pero una preocupación persistente aún persiste en el mundo de la IA, que se ha vuelto cada vez más preocupante a medida que el tiempo ha avanzado: el alineamiento.

El alineamiento de la IA se refiere al proceso de diseñar e implementar sistemas de IA para que se ajusten a los objetivos humanos, valores y resultados deseados. En otras palabras, el alineamiento se preocupa por asegurarse de que la IA no se vuelva rebelde.

Este es un campo incipiente en la IA, y los investigadores y desarrolladores están empezando a tomar conciencia de su importancia. Los temores de que la IA se descontrole y potencialmente dañe o destruya a la humanidad están detrás del impulso por lograr un mejor alineamiento de la IA.

Dividir las tareas de IA con composición

Una forma de lograr un alineamiento de IA funcional que preserve tanto la precisión como el alineamiento es la composición, un concepto tomado del mundo del software en el que se construye una pieza de software ensamblando componentes existentes para crear una aplicación o suite.

El alineamiento generalmente se utiliza al referirse al entrenamiento de Modelos de Lenguaje Grandes (LLMs) para aprender sobre un dominio de conocimiento específico y volver a entrenar esos modelos periódicamente cuando comienzan a desviarse del rumbo.

La idea de utilizar la composición en la IA es dividir los modelos de aprendizaje en subtareas, cada una enfocada en una cosa. El software general comprueba periódicamente cada tarea para asegurarse de que esté cumpliendo su función y solo su función.

Mediante el uso de la composición para enfocar las tareas de aprendizaje en una sola cosa, se pueden construir sistemas de IA más confiables y precisos manteniendo las subtareas y los modelos alineados con los objetivos deseados.

Una forma de entrenar modelos de IA para mantenerse en el objetivo es permitirles utilizar la reflexión, mediante la cual un modelo o tarea se verifica periódicamente para asegurarse de que lo que persigue solo esté alineado con su objetivo. Si un modelo o tarea comienza a desviarse del tema, el software puede readaptar la tarea periódicamente para asegurarse de que se mantenga enfocada.

Agentes autónomos impulsados por tareas

Dado que el objetivo final del alineamiento es la precisión y la imposición de límites, y dado que la composición es una buena manera de lograrlo, el objetivo final es desarrollar un sistema de agentes. Cada agente se convierte en un experto en un tema en particular.

Los LLM agentizados y otros agentes de IA general ya están en desarrollo y, en algunos casos, ya han sido lanzados, y todo un ecosistema de agentes de IA está surgiendo en torno al tema.

El investigador de IA Yohei Nakajima ha publicado un artículo en su blog titulado "Agente Autónomo Impulsado por Tareas Utilizando GPT-4, Pinecone y LangChain para Aplicaciones Diversas".

LangChain es un conjunto de herramientas y agentes de IA que ayuda a los desarrolladores a construir LLM agentizados mediante la composición.

El propio Nakajima tiene una publicación de blog titulada "Auge del Agente Autónomo". El artículo de Nakajima muestra diagramas de una posible forma en que podrían funcionar los sistemas de LLM con agentes:

Nakajima's agentized model.

Sistemas operativos de agentes de IA

e2b.dev ha lanzado EB2, que describe como un "Sistema Operativo para Agentes de IA". Eb2.dev también ha publicado una lista de "Impresionantes Agentes de IA" en GitHub. También hay un repositorio para impresionantes kits de desarrollo de software para agentes de IA.

En el futuro, podemos imaginar sistemas de IA que se puedan modificar simplemente cambiando los agentes y los LLM seleccionados para lograr alineación hasta que se obtenga el resultado deseado. Es posible que veamos surgir sistemas operativos de agentes de IA para encargarse de estas tareas.

Además de los recursos mencionados anteriormente, también echa un vistazo al AI Tool Hub, en particular a la Introducción a la Alplicación de IA: Haciendo que la IA funcione para la humanidad, así como a la Importancia de la Alineación de IA, explicada en 5 puntos en el Foro de Alineación de IA.

También hay un buen artículo introductorio sobre el tema de la alineación de IA titulado Comprendiendo la investigación de la alineación de IA: Un análisis sistemático de Jan H. Kirchner, Logan Smith, Jacques Thibodeau, et al.

Otra interesante compañía de agentes de IA basados en web para revisar es Cognosys.

Tendremos que esperar y ver qué depara el futuro para la IA y la alineación, pero ya se está trabajando arduamente para tratar de mitigar algunos de los riesgos y posibles aspectos negativos que la IA puede traer con el paso del tiempo.