Las redes neuronales electrónicas, uno de los conceptos clave en la investigación de la inteligencia artificial, han sido inspiradas por las neuronas biológicas desde sus inicios, tal como lo evidencia su nombre. Ahora, nuevas investigaciones revelan que la influyente arquitectura del transformador de IA también comparte paralelos inesperados con la neurobiología humana.
En un estudio colaborativo, los científicos proponen que las redes biológicas de astrocitos-neuronas podrían imitar las computaciones centrales de los transformadores. O viceversa. Los hallazgos, informados conjuntamente por el MIT, el MIT-IBM Watson AI Lab y la Facultad de Medicina de Harvard, fueron publicados esta semana en la revista Proceedings of the National Academy of Sciences.
Las redes de astrocitos-neuronas son redes de células en el cerebro que consisten en dos tipos de células: astrocitos y neuronas. Los astrocitos son células que respaldan y regulan las neuronas, que son células cerebrales que envían y reciben impulsos eléctricos. Su actividad es básicamente el pensamiento. Los astrocitos y las neuronas se comunican entre sí utilizando productos químicos, electricidad y contacto. Por otro lado, los transformadores de IA, introducidos por primera vez en 2017, son una de las tecnologías bases detrás de los sistemas generativos como ChatGPT. De hecho, eso es de donde proviene la "T" en GPT. A diferencia de las redes neuronales que procesan las entradas de manera secuencial, los transformadores pueden acceder directamente a todas las entradas a través de un mecanismo llamado autoatención. Esto les permite aprender las dependencias complejas en los datos como el texto.
Los investigadores se enfocaron en las sinapsis tripartitas, que son las conexiones donde los astrocitos forman conexiones entre una neurona que envía señales (neurona presináptica) y una neurona que recibe señales (neurona postsináptica).
Utilizando modelos matemáticos, demostraron cómo la integración de señales de los astrocitos a lo largo del tiempo podría proporcionar la memoria espacial y temporal requerida para la autoatención. Sus modelos también muestran que se podría construir un transformador biológico utilizando la señalización de calcio entre astrocitos y neuronas. En resumen, este estudio explica cómo construir un transformador orgánico.
"Después de haber permanecido eléctricamente silenciosos durante más de un siglo de registros cerebrales, los astrocitos son una de las células más abundantes, pero menos exploradas, del cerebro", dijo Konstantinos Michmizos, profesor asociado de ciencias de la computación en la Universidad de Rutgers, al MIT. "El potencial de liberar el poder computacional de la otra mitad de nuestro cerebro es enorme".
Esta hipótesis aprovecha las evidencias emergentes de que los astrocitos desempeñan roles activos en el procesamiento de información, a diferencia de sus funciones anteriormente asumidas de limpieza. También describe una base biológica para los transformadores, que pueden superar a las redes neuronales tradicionales en la facilitación de tareas como la generación de texto coherente.
Los transformadores biológicos propuestos podrían proporcionar nuevos conocimientos sobre la cognición humana si se validan experimentalmente. Sin embargo, todavía existen brechas significativas entre los modelos de transformadores ávidos de datos y los cerebros humanos. Mientras que los transformadores requieren conjuntos de datos de entrenamiento masivos, los cerebros humanos transforman la experiencia en lenguaje de manera orgánica con un presupuesto de energía modesto.
Aunque los vínculos entre la neurociencia y la inteligencia artificial ofrecen conocimientos, comprender la complejidad pura de nuestras mentes sigue siendo un inmenso desafío. Las conexiones biológicas representan apenas una pieza del rompecabezas: desentrañar las complejidades de la inteligencia humana requiere un esfuerzo sostenido en diferentes disciplinas. Cómo logra la biología neural algo cercano a la magia sigue siendo el misterio más profundo de la ciencia.