El logotipo de ChatGPT se ve en esta ilustración tomada el 3 de febrero de 2023. REUTERS / Dado Ruvic / Ilustración / LONDRES, 19 de mayo (Reuters Breakingviews) - "Mis colegas, ellos estudian inteligencia artificial", bromeó el psicólogo israelí Amos Tversky una vez. "Yo, estudio la estupidez natural". El cofundador de la economía conductual, quien murió en 1996, no vivió para ver 2023, cuando más de sus colegas académicos se unieron al carro de la IA junto con capitalistas de riesgo, líderes corporativos y comisionistas de bolsa. Pero los inversores deberían prestar más atención a la especialización de Tversky. La economía conductual, que estudia cómo los factores psicológicos, emocionales y sociales afectan la toma de decisiones humanas, tiene algunos puntos importantes para aquellos que esperan obtener ganancias con la IA.

La primera lección es la más obvia: cuidado con las burbujas. Desde que OpenAI lanzó su chatbot ChatGPT en noviembre pasado, el flujo constante de capital hacia todo lo relacionado con la IA se ha convertido en un torrente. Las acciones de Nvidia, el principal fabricante de chips utilizados para crear IA en el mundo, han aumentado más del 100% en los últimos seis meses. El gigante del software Microsoft ha ganado casi $500 mil millones en valor de mercado desde que anunció en febrero que estaba incorporando IA a su motor de búsqueda Bing. Los inversores de Alphabet agregaron unos frescos mil millones al valor del dueño de Google en un solo día la semana pasada después de que el CEO Sundar Pichai presentara su nueva oferta de IA en la conferencia anual I / O de la compañía.
De hecho, el entusiasmo por la IA se ha convertido en el único rayo de luz que atraviesa la penumbra del mercado de valores creado por el aumento récord de las tasas de interés en EE. UU. El analista de SocGen, Manish Kabra, calculó la semana pasada que, excluyendo las ganancias relacionadas con la IA, el índice S&P 500 estaría bajando un 2% año tras año. En cambio, estaba subiendo un 8%. El auge incluso tiene consecuencias macroeconómicas. El ministro de Finanzas irlandés, Michael McGrath, reveló la semana pasada planes para un nuevo fondo soberano de riqueza de 90 mil millones de euros, en gran parte financiado por un beneficio fiscal de gigantes tecnológicos como Apple y Microsoft, que están domiciliados en el país.
Para otras empresas, las vulnerabilidades percibidas de la IA pueden significar la muerte. Las acciones de Chegg se desplomaron a principios de este mes cuando el fabricante de materiales de estudio admitió que los llamados grandes modelos de lenguaje, como ChatGPT, estaban reduciendo su mercado.
Los modelos ortodoxos de fijación de precios de activos sugieren que estas salvajes fluctuaciones reflejan evaluaciones cambiantes pero racionales de la rentabilidad futura. Pero la economía conductual ha proporcionado desde hace mucho tiempo una explicación alternativa al enumerar una galería de ladrones sistemáticos de decisiones humanas. Estos van desde el arreo y la sobreconfianza hasta la confirmación de prejuicios y el temor a perderse algo. Es un buen momento para que los inversores estén especialmente alertas a la tendencia de la estupidez natural a impulsar las valoraciones del mercado de valores a extremos irreales y, por lo tanto, en última instancia, no rentables.
Sin embargo, las lecciones más importantes de la economía conductual se relacionan con una pregunta más fundamental: ¿Cumplirá la nueva generación de IA lo que promete? La tecnología ya ha logrado algunos resultados impresionantes. En noviembre de 2020, AlphaFold de Google DeepMind dejó atónito al mundo científico al lograr un cambio radical en uno de los grandes desafíos de la biología molecular. Predijo las estructuras en las que se "pliegan" las proteínas basándose solo en las secuencias de sus aminoácidos constituyentes. Venki Ramakrishnan, el premio Nobel y entonces presidente de la Royal Society británica, lo llamó un avance que "cambiará fundamentalmente la investigación biológica".
AlphaFold demostró lo que se entiende ampliamente como la mayor fortaleza de la inteligencia artificial (IA): su capacidad para reconocer patrones que escapan a la intuición humana y al análisis estadístico tradicional, y luego para aprovechar estos patrones con fines predictivos. La misma capacidad caracterizó los sorprendentes logros de la IA al derrotar a oponentes humanos en juegos estratégicos como el ajedrez y el Go, y ha permitido que ChatGPT produzca una prosa extrañamente coherente.
Lo desconocido es si la IA podrá reproducir esta extraordinaria capacidad predictiva en áreas de la vida comercial, financiera y política, donde las reglas son más difusas. La economía conductual ofrece algunas advertencias para tales intentos de aplicar la IA en la naturaleza.
Uno de los problemas potenciales es el llamado sesgo de muestreo al construir modelos predictivos basados en el aprendizaje estadístico. El problema es que los conjuntos de datos utilizados para entrenar los modelos pueden omitir eventos raros pero significativos. Por ejemplo, los rendimientos del mercado de valores pueden verse afectados por un pequeño número de movimientos raros pero extremos en los precios de las acciones. Como resultado, las empresas de negociación cuantitativa a menudo han evitado las estrategias de minería de datos puros a favor de enfoques en los que se asume en lugar de aprender la probabilidad de los llamados riesgos extremos. Los inversores menos técnicos adoptan su propia versión de la misma táctica cuando despliegan simples heurísticas como el "margen de seguridad" del legendario inversor Benjamin Graham.
Los economistas conductuales describieron el problema del sesgo de muestreo al estudiar cómo aprenden los humanos. Pero las redes neuronales pueden sufrir deficiencias similares. Las máquinas inteligentes, no menos que los humanos naturalmente estúpidos, tendrán que enfrentar el hecho irritante de que la ausencia de evidencia casi nunca es evidencia de ausencia.
Luego está quizás el problema más frustrante de todos cuando se trata de modelar y manipular el comportamiento humano: la Ley de Goodhart. Esta es la paradoja, articulada por primera vez por el funcionario del Banco de Inglaterra Charles Goodhart en 1975, de que cuando una métrica se convierte en un objetivo de política, deja de ser una métrica confiable. Por ejemplo, las agregaciones monetarias solían ser buenos predictores de la inflación. Pero cuando los bancos centrales adoptaron objetivos basados en esas cifras, la correlación estable desapareció.
La raíz de este problema es que los sistemas humanos son intrínsecamente adaptables de una manera que los sistemas físicos no lo son. Las personas comprenden e intentan burlar los esfuerzos para predecir su comportamiento si sienten que va en contra de sus intereses. Los aminoácidos involucrados en el plegamiento de proteínas no lo hacen.
Una vez más, estos desafíos prácticos están bien documentados en el campo de la inversión. El comercio de valores es un juego de suma cero: la ganancia de capital de un inversor es la pérdida de capital de otro. Como resultado, hay un poderoso e automático incentivo para que el resto del mercado se adapte y anule las reglas comerciales históricamente exitosas tan pronto como se identifiquen. La Ley de Goodhart explica por qué las ganancias excedentes disfrutadas por las estrategias de inversión sistemáticas normalmente se erosionan con el tiempo. Si la IA se desempeñará mejor al escapar de su gravedad sigue siendo una pregunta abierta.
Los inversores serían locos de ignorar los espectaculares resultados que la IA ha producido hasta ahora. Pero cuando se trata de aplicaciones más amplias, deberían proceder con cuidado. La inteligencia artificial puede tener más en común con la estupidez natural que los humanos - o las máquinas - piensan actualmente.