CUANDO DEEP BLUE, una computadora de ajedrez, venció a Garry Kasparov, el campeón del mundo, en 1997, muchos temieron que las máquinas triunfaran sobre la humanidad. En los años siguientes, la inteligencia artificial ha logrado cosas asombrosas, pero ninguna ha logrado captar la imaginación pública de la misma manera. Ahora, sin embargo, el asombro del momento Deep Blue está de regreso, porque las computadoras están utilizando algo que los humanos consideran su habilidad definitoria: el lenguaje.

Escuche esta historia. Disfrute de más audio y podcasts en iOS o Android.

O ¿lo están haciendo? Ciertamente, los modelos de lenguaje grandes (LLM), del cual el más famoso es ChatGPT, producen lo que parece ser escritura humana impecable. Pero ha surgido un debate sobre lo que las máquinas están haciendo internamente, lo que es que hacen los humanos cuando hablan—y, dentro del ámbito académico, sobre las teorías del lingüista más famoso del mundo, Noam Chomsky.

Aunque las ideas del profesor Chomsky han cambiado considerablemente desde que se hizo famoso en la década de 1950, varios elementos han permanecido bastante constantes. Él y sus seguidores argumentan que el lenguaje humano es diferente en tipo (no sólo en grado de expresividad) de cualquier otro tipo de comunicación. Todas las lenguas humanas son más similares entre sí que, por ejemplo, los cantos de ballenas o el código informático. El profesor Chomsky ha dicho con frecuencia que un visitante marciano concluiría que todos los humanos hablan el mismo idioma, con variación superficial.

Quizás lo más notable es que las teorías chomskyanas sostienen que los niños aprenden sus lenguas nativas con una velocidad y facilidad sorprendentes a pesar de "la pobreza del estímulo": el lenguaje descuidado y ocasional que escuchan en la infancia. La única explicación para esto puede ser que algún tipo de predisposición para el lenguaje está incorporado en el cerebro humano.

Las ideas chomskyanas han dominado el campo lingüístico de la sintaxis desde su nacimiento. Pero muchos lingüistas son vehementemente anti-Chomsky. Y algunos están aprovechando las capacidades de los LLM para atacar las teorías chomskyanas de nuevo.

La gramática tiene una estructura jerárquica y anidada que implica unidades dentro de otras unidades. Las palabras forman frases, que forman cláusulas, que forman oraciones, y así sucesivamente. La teoría chomskyana postula una operación mental, "Merge", que une unidades más pequeñas para formar otras más grandes que luego pueden ser operadas (y así sucesivamente). En un reciente editorial del New York Times, el hombre en sí mismo (ahora de 94 años) y dos coautores dijeron que "sabemos" que las computadoras no piensan ni usan el lenguaje como los humanos, refiriéndose implícitamente a este tipo de cognición. Los LLM, en efecto, solo predicen la siguiente palabra en una cadena de palabras.

Sin embargo, por varias razones, es difícil entender lo que "piensan" los LLM. Los detalles de la programación y los datos de entrenamiento de los comerciales como ChatGPT son de propiedad privada. E incluso los programadores no saben exactamente lo que está sucediendo dentro.

Los lingüistas han encontrado formas ingeniosas de poner a prueba el conocimiento subyacente de los LLM, engañándolos con pruebas de sondeo. Y de hecho, los LLM parecen aprender estructuras gramaticales anidadas y jerárquicas, aunque solo estén expuestos a entradas lineales, es decir, cadenas de texto. Pueden manejar palabras nuevas y comprender partes del discurso. Dígale a ChatGPT que "dax" es un verbo que significa comer una rebanada de pizza doblando, y el sistema lo utiliza fácilmente: "Después de un largo día de trabajo, me gusta relajarme y daxear en una rebanada de pizza mientras veo mi programa de televisión favorito". (El elemento imitativo se puede ver en "daxear", que ChatGPT probablemente modeló en expresiones como "masticar" o "comer".)

¿Qué pasa con la "pobreza del estímulo"? Después de todo, se estima que GPT-3 (el LLM subyacente de ChatGPT hasta el reciente lanzamiento de GPT-4) ha sido entrenado en alrededor de 1.000 veces los datos a los que se expone un niño de diez años. Eso deja abierta la posibilidad de que los niños tengan una tendencia innata a la gramática, lo que los hace mucho más competentes que cualquier LLM. En un próximo artículo en Linguistic Inquiry, los investigadores afirman haber entrenado a un LLM sin más texto que el que se expone a un niño humano, descubriendo que puede usar incluso partes raras de la gramática. Pero otros investigadores han intentado entrenar a un LLM en una base de datos de lenguaje dirigido a niños (es decir, de transcripciones de cuidadores hablando con niños). Aquí, los LLM tienen mucho peor desempeño. Quizás el cerebro realmente esté construido para el lenguaje, como dice el profesor Chomsky.

Es difícil juzgar. Ambos lados del argumento están utilizando los LLM para presentar sus argumentos. El fundador eponímico de su escuela de lingüística solo ha ofrecido una respuesta brusca. Para que sus teorías sobrevivan a este desafío, su campo tendrá que presentar una defensa más sólida. ■

Más de Johnson, nuestro columnista sobre lenguaje: A new language textbook in Mexico has caused a brouhaha (12th Apr) ChatGPT is a marvel of multilingualism (27th Mar) "Omit needless words!" But not all of them (16th Mar)

También: Cómo la columna de Johnson recibió su nombre.