LONDRES/ESTOCOLMO, 28 de abril (Reuters) - (Este artículo del 28 de abril ha sido cambiado para eliminar una palabra repetida en el párrafo 1)

Incluso en febrero, la inteligencia artificial generativa no se incluía prominentemente en los planes de los legisladores de la Unión Europea (UE) para regular tecnologías de inteligencia artificial como ChatGPT.

La propuesta de 108 páginas que presentó el bloque para la Ley de Inteligencia Artificial, publicada dos años antes, solo mencionaba una vez la palabra "chatbot". Las referencias al contenido generado por inteligencia artificial se referían principalmente a deepfakes: imágenes o audio diseñados para suplantar a seres humanos.

Sin embargo, a mediados de abril, los miembros del Parlamento Europeo (MEP) se apresuraban a actualizar esas reglas para ponerse al día con la explosión de interés en la inteligencia artificial generativa, que ha provocado asombro y ansiedad desde que OpenAI presentó ChatGPT hace seis meses.

Esa corrida culminó el jueves con un nuevo borrador de la legislación que identificaba la protección del derecho de autor como pieza fundamental del esfuerzo por mantener a la inteligencia artificial bajo control.

Entrevistas con cuatro legisladores y otras dos fuentes cercanas a las discusiones revelan por primera vez cómo, en solo 11 días, este pequeño grupo de políticos forjó lo que podría ser una legislación histórica, dando forma al panorama regulatorio de OpenAI y sus competidores.

El proyecto de ley no es definitivo y los abogados dicen que probablemente tomará años entrar en vigor. No obstante, la rapidez de su trabajo es también un raro ejemplo de consenso en Bruselas, a menudo criticada por su lento ritmo de toma de decisiones.

CAMBIOS DE ÚLTIMO MINUTO

Desde su lanzamiento en noviembre, ChatGPT se ha convertido en la aplicación de crecimiento más rápido de la historia, provocando una serie de actividades de competidores de Big Tech e inversión en startups de inteligencia artificial generativa como Anthropic y Midjourney.

La desenfrenada popularidad de estas aplicaciones llevó al jefe de la industria de la UE, Thierry Breton, y a otros a pedir regulaciones para servicios similares a ChatGPT.

Una organización respaldada por Elon Musk, el multimillonario CEO de Tesla Inc (TSLA.O) y Twitter, llegó aún más lejos al emitir un comunicado advirtiendo del riesgo existencial de la IA y solicitando regulaciones más estrictas.

El 17 de abril, sin embargo, dos de ellos -Dragos Tudorache y Brando Benifei- propusieron cambios que obligarían a las empresas con sistemas de inteligencia artificial generativa a revelar cualquier material con derechos de autor utilizado para entrenar sus modelos, según cuatro fuentes presentes en las reuniones que solicitaron el anonimato debido a la sensibilidad de las discusiones.

Esa nueva y sólida propuesta recibió el apoyo transversal, dijeron las fuentes.

Una propuesta del conservador MEP Axel Voss -obligando a las empresas a solicitar permiso a los titulares de derechos antes de usar los datos- fue rechazada por considerarla demasiado restrictiva y perjudicial para la emergente industria.

Después de discutir los detalles durante la siguiente semana, la UE destacó propuestas de leyes que podrían obligar a un incómodo nivel de transparencia en una industria notoriamente secreta.

"Debo admitir que me sorprendió positivamente cómo convergimos con bastante facilidad en lo que debería estar en el texto sobre estos modelos", dijo Tudorache a Reuters el viernes.

"Muestra que hay un fuerte consenso y una comprensión compartida sobre cómo regular en este momento".

El comité votará sobre el acuerdo el 11 de mayo, y si tiene éxito, avanzará a la siguiente etapa de negociación, el trílogo, donde los estados miembros de la UE debatirán el contenido con la Comisión y el Parlamento Europeo.

"Estamos esperando a ver si el acuerdo se mantiene hasta entonces", dijo una fuente familiarizada con el asunto.

BIG BROTHER VS. THE TERMINATOR

Hasta hace poco, los MEP todavía no estaban convencidos de que la inteligencia artificial generativa mereciera una consideración especial. En febrero, Tudorache dijo a Reuters que la IA generativa no se cubriría en profundidad. "Esa es otra discusión que no creo que abordemos en este texto", dijo.

Citando riesgos de seguridad de datos sobre advertencias de inteligencia similar a la humana, dijo: "Tengo más miedo del Gran Hermano que del Terminator".

Pero Tudorache y sus colegas ahora están de acuerdo en la necesidad de leyes que se enfoquen específicamente en el uso de la inteligencia artificial generativa.

Según las nuevas propuestas que apuntan a "modelos fundamentales", empresas como OpenAI, respaldada por Microsoft Corp (MSFT.O), tendrían que revelar cualquier material con derechos de autor -libros, fotografías, videos y más- utilizado para entrenar sus sistemas.

Afirmaciones de infracción de derechos de autor han irritado a empresas de IA en los últimos meses, cuando Getty Images demanda a Stable Diffusion por usar fotos con derechos de autor para entrenar sus sistemas. OpenAI también ha enfrentado críticas por negarse a compartir detalles del conjunto de datos utilizado para entrenar su software.

"Ha habido llamados desde fuera y dentro del Parlamento para una prohibición o la clasificación de ChatGPT como de alto riesgo", dijo la MEP Svenja Hahn. "El compromiso final es amigable con la innovación ya que no clasifica estos modelos como 'alto riesgo', pero establece requisitos de transparencia y calidad".

Información de Martin Coulter en Londres y Supantha Mukhurjee en Estocolmo; Editado por Josephine Mason, Kenneth Li y Matthew Lewis

Nuestros Estándares: Los principios de confianza de Thomson Reuters.