Incluso las personas que no están en el ámbito tecnológico parecían haber oído hablar del despido de Sam Altman de OpenAI el viernes. Estaba con dos amigos al día siguiente (uno trabaja en construcción y el otro en marketing) y ambos estaban hablando de ello. La inteligencia artificial generativa (genAI) parece haberse vuelto popular.

Sin embargo, lo que no ha logrado es escapar de la influencia del BS, tal como ha destacado Alan Blackwell. No, no me refiero a que la IA sea vacía, se base en la exageración y carezca de contenido. La IA ya está dando resultados en muchas empresas de diferentes industrias. Incluso la genAI, un pequeño subconjunto del mercado general de la IA, es un cambio radical para el desarrollo de software y más allá. Y sin embargo, Blackwell tiene razón: "La IA literalmente produce disparates". Inventan cosas que suenan bien basadas en los datos de entrenamiento.

Aun así, si podemos "encerrarla", como describe el profesor de IA del MIT Rodney Brooks, la genAI tiene el potencial de marcar una gran diferencia en nuestras vidas.

'ChatGPT es un generador de disparates'

La verdad no es fundamental para el funcionamiento de los modelos de lenguaje grandes. Los LLM (Large Language Models) son "algoritmos de aprendizaje profundo que pueden reconocer, resumir, traducir, predecir y generar contenido utilizando conjuntos de datos muy grandes". Observa que "verdad" y "conocimiento" no tienen cabida en esa definición. Los LLM no están diseñados para decirte la verdad. Como se explica detalladamente en un foro de OpenAI, "los modelos de lenguaje grandes son probabilísticos por naturaleza y operan generando salidas probables basadas en los patrones que han observado en los datos de entrenamiento. En el caso de problemas matemáticos y físicos, puede haber solo una respuesta correcta y la probabilidad de generar esa respuesta puede ser muy baja".

Eso es una forma amable de decir que es posible que no quieras confiar en ChatGPT para hacer problemas de multiplicación básicos, pero podría ser excelente para crear una respuesta sobre la historia del álgebra".

De hecho, canalizando a Geoff Hinton, Blackwell dice: "Uno de los mayores riesgos no es que los chatbots se vuelvan superinteligentes, sino que generen texto superpersuasivo sin ser inteligentes".

Es como las "noticias falsas" potenciadas. Como dice Blackwell, "hemos automatizado la estupidez".

Esto no es sorprendente, dado que las fuentes principales para los sistemas GenAI subyacentes de ChatGPT y otros LLMs son Twitter, Facebook, Reddit y "otros enormes archivos de estupideces". Sin embargo, "no hay un algoritmo en ChatGPT que verifique qué partes son verdaderas", de modo que "el resultado es literalmente estupidez", dice Blackwell.

¿Qué hacer?

'Tienes que encajar las cosas con cuidado'

La clave para obtener un poco de conocimiento útil de los LLMs, según Brooks, es "encajar". Él dice: "Tienes que encajar los LLMs con cuidado para que no salga la locura ni la invención de cosas". Pero, ¿cómo se "encaja un LLM"?

Una manera crítica es a través de la generación con aumento de recuperación (RAG, por sus siglas en inglés). Me encanta cómo Zachary Proser lo caracteriza: "RAG es como sostener una tarjeta con las puntos críticos para que tu LLM los vea". Es una forma de mejorar un LLM con datos propietarios, dándole al LLM más contexto y conocimiento para mejorar sus respuestas.

RAG depende de los vectores, que son un elemento fundamental utilizado en una variedad de casos de uso de IA. Una incrustación vectorial es simplemente una lista larga de números que describen las características del objeto de datos, como una canción, una imagen, un video o un poema, almacenados en una base de datos vectorial. Se utilizan para capturar el significado semántico de los objetos en relación con otros objetos. Los objetos similares se agrupan en el espacio vectorial. Cuanto más cerca estén dos objetos, más similares son. (Por ejemplo, "rugby" y "fútbol" estarán más cerca uno del otro que "fútbol" y "baloncesto"). Luego puede buscar entidades relacionadas que sean similares según sus características, sin depender de sinónimos o coincidencias de palabras clave.

Como concluye Proser, "ahora que el LLM tiene acceso a los hechos más pertinentes y fundamentales de su base de datos vectorial, puede proporcionar una respuesta precisa para el usuario. RAG reduce la probabilidad de alucinaciones". De repente, tu LLM es mucho más propenso a darte una respuesta verdadera, no solo una respuesta que suene verdadera. Este es el tipo de "encaje" que puede hacer que los LLMs sean realmente útiles y no solo publicidad.

De lo contrario, sería simplemente estupidez automatizada.

Copyright © 2023 IDG Communications, Inc.