Después de llamados de todas partes, incluyendo la industria tecnológica, para una mayor regulación de la inteligencia artificial, parece que la Unión Europea está dando el primer paso. El resto del mundo occidental se está quedando atrás.

Es bueno para la UE, pero contengamos nuestro aplauso. La pregunta sigue siendo: ¿Están impulsando el tipo correcto de regulación? ¿Y puede la UE ser más efectiva en la regulación de la IA que las Naciones Unidas en la prevención de la guerra?

Es importante que la UE haya tomado este paso porque, según The New York Times, podría ser "un modelo para los encargados de políticas en todo el mundo mientras tratan de poner barreras de protección en la tecnología que se desarrolla rápidamente".

Barreras. Como si fuera tan fácil. Poner barreras sería pan comido en comparación con la tarea de controlar la IA.

El miércoles, la UE aprobó un proyecto de ley creativamente llamado AI Act (denles tiempo; aún conseguirán algunos poetas). Incluye medidas para, entre otras cosas, "limitar severamente a los usuarios de software de reconocimiento facial, mientras se exige a los fabricantes de sistemas de IA como el chatbot ChatGPT que revelen más sobre los datos utilizados para crear los programas".

La divulgación es un comienzo. Fuera del juego de espías, la transparencia es casi siempre buena. La transparencia del AI Act incluiría la publicación de resúmenes de material con derechos de autor utilizado para entrenar a los sistemas. Esto es apoyado por la industria editorial, pero opuesto por los desarrolladores de tecnología como algo inviable.

También según The Times, el proyecto de ley de la UE está tomando un "enfoque basado en el riesgo" al centrarse en regular las aplicaciones con el mayor potencial para causar daño. ¿No es simplemente sentido común?

Existen otras consideraciones, pero según la Asociación de Industrias de Computación y Comunicaciones, las regulaciones deben evitar ser demasiado amplias o inhibir la innovación. Uno de los puntos de fricción está en el área del reconocimiento facial y otra disposición "prohibiría a las compañías recolectar datos biométricos de las redes sociales para construir bases de datos..." Lo que suena mucho a vigilancia.

Francine Bennett, defensora de las regulaciones de IA y directora interina del Instituto Ada Lovelace en Londres, dice que "La tecnología que evoluciona rápidamente es, por supuesto, difícil de regular cuando ni siquiera las compañías que construyen la tecnología tienen una idea clara de cómo las cosas van a evolucionar".

Es preocupante saber que las compañías que en realidad crearon la tecnología no están "totalmente claras" sobre cómo su tecnología impactará el mundo. Pero lo que más nos preocupa es que ninguna de las estrategias mencionadas anteriormente hace mucho para abordar la amenaza más grande: el mal uso de la tecnología con fines siniestros.

Regulaciones, regulaciones, regulaciones. Suponemos que la UE tiene buenas intenciones. Pero también suponemos que por cada voto solemne que toma sobre supuestamente desacelerar la inteligencia artificial, o al menos actuar como su maestro, los robots ya estarán 20 pasos adelante.