Este artículo fue co-publicado con Understanding AI, un boletín que explora cómo funciona la inteligencia artificial y cómo está cambiando nuestro mundo.
Cuando ejecutivos del Silicon Valley testifican ante el Congreso, normalmente son duramente criticados. Pero la apareción del CEO de OpenAI, Sam Altman, ante el Comité de Justicia del Senado el martes pasado fue diferente.
Los senadores le hicieron preguntas penetrantes a Altman y escucharon respetuosamente sus respuestas. Después, el presidente del comité, el senador Richard Blumenthal de Connecticut, elogió a Altman.
"Sam Altman es la noche y el día en comparación con otros CEOs", dijo Blumenthal a los reporteros después de la audiencia. "No solo en palabras y retórica, sino también en acciones reales, y su disposición para participar y comprometerse con acciones específicas".
El tema central del testimonio de Altman fue un llamado a un nuevo régimen de licencias para modelos de inteligencia artificial poderosos.
"Formaría una nueva agencia que otorgue licencias a cualquier esfuerzo por encima de cierta escala de capacidades, y podría revocar esa licencia y garantizar el cumplimiento de las normas de seguridad", dijo Altman. Agregó que estas normas deberían centrarse en "capacidades peligrosas", como la capacidad de "autorreplicarse y autorexfiltrarse en la naturaleza".
La propuesta de Altman representaría una expansión drástica del poder federal sobre el sector de la inteligencia artificial. Y hasta donde puedo ver, se ha hecho poco trabajo para desarrollar un sistema así.
"Estoy un poco perpleja por lo que está proponiendo", me dijo la académica legal de la Universidad de Colorado, Margot Kaminski, el miércoles pasado. "No se ajusta a todas las leyes que existen".
Intuitivamente, tiene sentido que una tecnología radicalmente nueva como la inteligencia artificial pueda necesitar un nuevo tipo de marco regulatorio. El problema es que Altman y otros que piensan como él no han explicado cómo funcionaría ese esquema de licencias. Y dado lo rápido que está cambiando la tecnología, existe un gran riesgo de equivocarse.
Otra testigo en la audiencia del martes fue la ejecutiva de IBM Christina Montgomery, quien defendió un enfoque más convencional para regular la IA. IBM lo llama "regulación de precisión" y se centra en supervisar el uso de la IA en campos de alta importancia, como justicia penal, contratación y medicina, donde sería especialmente importante tener cuidado para no eliminar a los humanos de cualquier toma de decisiones.
Kaminski me dijo que la Unión Europea está desarrollando actualmente una nueva Ley de Inteligencia Artificial que sigue el enfoque de las recomendaciones de IBM. Clasificaría las aplicaciones de IA según su nivel de riesgo y sometería a las aplicaciones de mayor riesgo a una regulación más estricta. Se prohibirían algunas de las aplicaciones de mayor riesgo de la IA, como el rastreo en tiempo real de personas utilizando identificadores biométricos.
La UE publicó un borrador actualizado de la propuesta la semana pasada. El nuevo borrador causó revuelo porque propuso regular a los proveedores de los llamados modelos base, modelos de aprendizaje automático poderosos como GPT-4 con una amplia gama de usos potenciales. Antes de que una empresa europea pudiera crear un producto sobre un modelo base, el creador del modelo tendría que proporcionar a los reguladores de la UE información detallada sobre cómo se entrenó el modelo, lo que podía hacer y cómo se estaban mitigando los riesgos potenciales.
Los críticos advierten que esto podría crear una brecha en el mundo de la IA, ya que los creadores de modelos base con sede en Estados Unidos podrían no estar dispuestos o no ser capaces de cumplir con los requisitos de la UE. Las empresas europeas podrían quedarse sin acceso a modelos estadounidenses de vanguardia, lo que podría obstaculizar el desarrollo del sector de la IA en Europa. Los críticos también advierten que podría limitar el desarrollo de modelos base de código abierto, ya que sus patrocinadores podrían no tener los recursos necesarios para cumplir con la burocracia de la UE.
Sin embargo, la propuesta europea se centra principalmente en regular las aplicaciones dirigidas al consumidor de la inteligencia artificial (IA). En contraste, Altman parece estar abogando por que los gobiernos creen un régimen de licencias para los modelos fundamentales mismos.
Sospecho que estas propuestas divergentes reflejan enfoques filosóficos diferentes de los que escribí recientemente. La propuesta de Altman de regular directamente los modelos de lenguaje potentes refleja la preocupación singularista de que los modelos de IA suficientemente potentes puedan volverse conscientes de sí mismos y eliminar a la raza humana. En contraste, las propuestas de IBM y de la UE reflejan un enfoque más fisicalista: centrado en los daños que pueden ocurrir cuando las personas aplican la IA a sectores específicos de la economía.
Al comienzo de la audiencia del martes, Blumenthal dijo que su "peor pesadilla" sobre la IA era "el efecto sobre los empleos". Le pidió a Altman que compartiera su propia peor pesadilla sobre la IA y que luego comentara si esperaba que la IA provocara pérdidas de empleo a gran escala.
"Como con todas las revoluciones tecnológicas, espero que haya un impacto significativo en los empleos, pero es muy difícil predecir exactamente cómo será ese impacto", dijo Altman. "Creo que habrá muchos más empleos al otro lado de esto y los empleos de hoy mejorarán".
El tercer testigo del panel, el psicólogo y empresario Gary Marcus, también dijo que estaba preocupado por la posible pérdida de empleos. Pero luego señaló que Altman no reveló realmente su mayor pesadilla. Por lo tanto, Blumenthal ofreció a Altman otra oportunidad para responder.
"Mi peor temor es que, como campo, tecnología e industria, causemos un daño significativo al mundo", dijo Altman. "Es por eso que comenzamos la empresa [para evitar ese futuro]. Creo que si esta tecnología sale mal, puede salir muy mal".
Esto sigue siendo bastante vago, pero los comentarios anteriores de Altman dejan en claro que está preocupado de que la IA pueda amenazar la supervivencia de la humanidad. Por ejemplo, en una entrevista a principios de este año, Altman dijo que "el peor de los casos es el apagado total para todos nosotros".
Más tarde en la audiencia del martes, Altman mencionó que las IA diseñan "nuevos agentes biológicos" como una de las amenazas contra las cuales deben proteger los reguladores.
Al igual que Altman, Marcus favorece un régimen de licencias para nuevos modelos de IA. Pidió que se realizara "una revisión de seguridad como la que usamos con la FDA" antes de que se pudiera implementar ampliamente un sistema como ChatGPT.
Los chatbots pueden producir una amplia gama de salidas que las personas pueden considerar inseguras, desde malos consejos médicos hasta instrucciones para cometer delitos hasta declaraciones sesgadas o prejuiciosas. Decidir cuándo las respuestas de un chatbot son lo suficientemente dañinas como para justificar mantenerlo fuera del mercado parece ser un campo minado político.
Por ejemplo, varios senadores expresaron su preocupación porque la información errónea generada por la IA podría socavar la democracia. La senadora Amy Klobuchar de Minnesota expresó su preocupación de que ChatGPT diera a los votantes información inexacta sobre cómo votar el día de las elecciones. Otros se preocuparon por los sistemas de IA generativos que generan imágenes, audio o video "deep fake" que podrían engañar a los votantes e influir en su voto.
Pero mientras que casi todos los miembros del Congreso probablemente estén de acuerdo en que la desinformación es mala en abstracto, es probable que republicanos y demócratas discrepen en gran medida sobre la forma exacta de definir el concepto. Además, Margot Kaminski me dijo que la jurisprudencia contemporánea de la Primera Enmienda dificultaría que los gobiernos en los EE. UU. limiten la información errónea generada por la IA. Por ejemplo, cualquier ley que requiera una licencia para generar discurso político utilizando IA probablemente sería desestimada como restricción previa inconstitucional.
También hay un problema conceptual importante con el uso de pruebas similares a la FDA para proteger contra la IA peligrosa y superinteligente. Una premisa básica del pensamiento singularista es que dichos sistemas serán hábiles para manipular y engañar a los humanos. Un sistema así presumiblemente podría engañar a los reguladores gubernamentales para que lo aprueben al hacerse pasar por menos capaz y más benigno de lo que realmente es.
Protegerse contra las consecuencias más graves de la IA parece ser un problema legítimamente difícil.
Incluso si un modelo de IA no es peligroso por sí solo, podría ser un componente significativo de un sistema peligroso. En las últimas semanas, las personas han estado experimentando con sistemas de IA "agentes" como Auto-GPT y BabyAGI que efectivamente les dan a los grandes modelos de lenguaje la capacidad de hacer planes y luego llevarlos a cabo de manera autónoma. Hasta ahora, estos sistemas no funcionan muy bien y no parecen representar un peligro para nadie. Pero eso podría cambiar a medida que los grandes modelos de lenguaje se vuelvan más sofisticados.
Todo lo cual es para decir que no me sorprende que Altman no tenga todos los detalles de su esquema de licencias pensado. Protegerse contra las peores consecuencias de la IA parece ser un problema legítimamente difícil.
Pero si estos detalles no llegan pronto, el resultado podría ser una gran discrepancia entre lo que los responsables políticos dicen que están intentando lograr y lo que realmente hacen.
La audiencia del martes dejó claro que hay un fuerte apetito bipartidista en el Congreso por nuevas regulaciones de la IA. Su sentido de urgencia se basa en la creencia de que la IA podría representar una amenaza seria para nuestros trabajos, nuestra democracia y tal vez incluso nuestra supervivencia como especie.
Sin embargo, las propuestas reglamentarias concretas tienden a enfocarse en objetivos más pedestres. Por ejemplo, en octubre pasado, la administración Biden publicó un "Plan de un proyecto de ley de derechos de la IA" que incluía secciones sobre privacidad, no discriminación y transparencia. También hay una sección sobre "sistemas seguros y efectivos" que se centra en garantizar que los sistemas físicos como los coches autónomos no funcionen mal y lastimen a las personas.
Estas son todas preocupaciones dignas, pero no creo que sean las que mantienen despierto a Sam Altman por la noche.
Un tema recurrente de la audiencia del martes fue que el Congreso se movió demasiado lentamente para regular las redes sociales y no debería cometer el mismo error con la IA. No estoy seguro de estar de acuerdo con esta premisa.
Hoy en día hay un consenso bastante amplio de que las redes sociales han profundizado las divisiones partidistas y empeorado la salud mental, especialmente para las adolescentes. Pero no me parece obvio que el Congreso pudiera haber anticipado estos problemas hace 10 o 20 años. E incluso hoy en día, no hay un consenso real sobre cómo solucionarlos.
En este momento, la tecnología de IA generativa está cambiando tan rápidamente que es difícil prever cómo será dentro de cinco o diez años. Es más difícil prever qué problemas sociales o económicos es probable que cause la IA, y todavía más difícil anticipar qué cambios de políticas serán útiles.
Por lo tanto, no me parece obvio que el sentido de urgencia del Congreso sobre este tema esté justificado. Establecer un régimen de licencias ahora también podría afianzar la dominancia de los incumbentes industriales como Google y OpenAI al hacer más difícil que las nuevas empresas creen modelos de base propios. Podría tener más sentido esperar uno o dos años y ver cómo evoluciona la tecnología de IA antes de aprobar un proyecto de ley importante para regular la IA.
Mientras tanto, creo que lo mejor que podría hacer el Congreso es financiar esfuerzos para entender mejor los daños potenciales de la IA. A principios de este mes, la Fundación Nacional de Ciencia anunció la creación de siete nuevos Institutos Nacionales de Investigación de la Inteligencia Artificial enfocados en temas como la IA confiable y la ciberseguridad. Invertir más dinero en iniciativas como esta podría ser un gasto bien empleado.
También me encantaría ver que el Congreso creara una agencia para investigar las vulnerabilidades de ciberseguridad en sistemas del mundo real. Podría funcionar algo así como la Junta Nacional de Seguridad del Transporte, la agencia federal que investiga accidentes de aviones, descarrilamientos de trenes y similares. Una nueva agencia de ciberseguridad podría investigar si los operadores de plantas de energía, oleoductos, drones militares y coches autónomos están tomando las precauciones adecuadas contra los hackers. Estas precauciones harían que nuestros sistemas fueran más seguros contra los ataques de humanos y de IA. Y también nos daría un margen de seguridad si se realiza finalmente la pesadilla de Sam Altman.