Ampliar / Una imagen creada por OpenAI utilizando DALL-E 3. Los artistas han pasado el último año luchando contra empresas que han estado entrenando generadores de imágenes con IA, incluyendo herramientas populares como la impresionante Midjourney fotorealista o la ultra sofisticada DALL-E 3—en sus obras originales sin su consentimiento ni compensación. Ahora, Estados Unidos ha prometido tomar medidas serias para abordar sus preocupaciones de derechos de autor planteadas por la IA, dijo el presidente Joe Biden en su tan esperada orden ejecutiva sobre IA, que fue firmada esta semana.

An image OpenAI created using DALL-E 3.

La Oficina de Derechos de Autor de Estados Unidos ya había estado solicitando la opinión pública sobre las preocupaciones relacionadas con la IA durante los últimos meses a través de un periodo de comentarios que finaliza el 15 de noviembre. La orden ejecutiva de Biden ha dejado claro que después de este período de comentarios, la Oficina de Derechos de Autor publicará los resultados de su estudio. Y luego, dentro de los 180 días de esa publicación, o dentro de los 270 días de la orden de Biden, "lo que ocurra más tarde", el director de la Oficina de Derechos de Autor consultará con Biden para "emitir recomendaciones al Presidente sobre posibles acciones ejecutivas relacionadas con los derechos de autor y la IA".

Las recomendaciones deberán abordar cualquier problema de derechos de autor y cuestiones relacionadas discutidas en el estudio de la Oficina de Derechos de Autor de los Estados Unidos, incluyendo el alcance de la protección para las obras producidas utilizando IA y el tratamiento de las obras con derechos de autor en el entrenamiento de IA", dijo la orden de Biden.

Eso significa que potencialmente, en los próximos seis a nueve meses (o más), los artistas podrían tener respuestas a algunas de sus mayores preguntas legales, incluyendo una comprensión más clara de cómo proteger sus obras para evitar que se utilicen para entrenar modelos de IA.

Actualmente, los artistas no tienen muchas opciones para detener a los creadores de imágenes de IA, que generan imágenes basadas en instrucciones de texto del usuario, de hacer referencia a sus obras. Incluso empresas como OpenAI, que recientemente comenzó a permitir que los artistas opten por no incluir sus obras en los datos de entrenamiento de IA, solo permiten que los artistas opten por no participar en los datos de entrenamiento futuros. Los artistas no pueden optar por no participar en los datos de entrenamiento que alimentan las herramientas existentes porque, como dice OpenAI:

Después de que los modelos de IA han aprendido de sus datos de entrenamiento, ya no tienen acceso a los datos. Los modelos solo retienen los conceptos que han aprendido. Cuando alguien hace una solicitud a un modelo, el modelo genera una respuesta basada en su comprensión de los conceptos incluidos en la solicitud. No busca ni copia contenido de una base de datos existente.

Según The Atlantic, este proceso de exclusión voluntaria, que requiere que los artistas presenten solicitudes para cada obra de arte y que puede ser demasiado engorroso para muchos artistas, deja a los artistas solo con la opción de proteger las nuevas obras que "crean a partir de ahora". The Atlantic advirtió que parece que es demasiado tarde para proteger cualquier obra que "ya haya sido reclamada por las máquinas" en 2023. Y este problema claramente afecta a mucha gente. Un portavoz le dijo a The Atlantic que Stability AI solo ha recibido "más de 160 millones de solicitudes de exclusión voluntaria en entrenamientos futuros".

Hasta que los reguladores federales determinen qué derechos deberían mantener los artistas a medida que las tecnologías de IA avanzan rápidamente, al menos un artista, la dibujante e ilustradora Sarah Andersen, está presentando una reclamación directa por infracción de derechos de autor contra Stability AI, fabricante de Stable Diffusion, otra destacada herramienta de síntesis de imágenes de IA.

Andersen, cuya demanda colectiva propuesta podría afectar a todos los artistas, tiene aproximadamente un mes para enmendar su demanda y "alegar plausiblemente que los productos de IA de los demandados permiten a los usuarios crear nuevas obras haciendo referencia expresa a las obras de Andersen por su nombre", si quiere que "las inferencias" en su demanda "sobre cómo y cuánto del contenido protegido de Andersen queda en Stable Diffusion o es utilizado por los productos finales de IA" sean "más sólidas", recomendó un juez.

En otras palabras, bajo las actuales leyes de derechos de autor, Andersen probablemente enfrentará dificultades para ganar su batalla legal si no logra mostrar al tribunal qué imágenes específicas con derechos de autor se utilizaron para entrenar los modelos de IA y demostrar que esos modelos utilizaron esas imágenes específicas para producir arte que se parece exactamente al suyo.

Citar ejemplos específicos será importante, según un experto legal, porque argumentar que las herramientas de IA imitan estilos probablemente no funcionará, ya que "el estilo ha demostrado ser casi imposible de proteger mediante derechos de autor".

Los abogados de Andersen le dijeron a Ars que su caso es "complejo", pero siguen confiando en que pueda ganar, posiblemente porque, como otros expertos le dijeron a The Atlantic, podría demostrar que "los programas de IA generativa pueden retener una cantidad sorprendente de información sobre una imagen en sus datos de entrenamiento, a veces lo suficiente como para reproducirla casi perfectamente". Sin embargo, podría fracasar si el tribunal decide que el uso de datos para entrenar modelos de IA es un uso legítimo de las obras de los artistas, una cuestión legal que sigue siendo incierta.

Página 2

Leyes de derechos de autor más sólidas podrían favorecer a las grandes tecnológicas

Lo último que las empresas de IA quieren hacer en este punto de popularidad creciente de los generadores de imágenes es volver a entrenar los modelos de IA, pero existe la posibilidad de que el gobierno pueda requerirlo algún día.

Además de que Biden está presionando para brindar una guía de derechos de autor muy necesaria el próximo año, la Comisión Federal de Comercio podría tener el poder de intervenir. Andrew Burt, fundador de un bufete de abogados enfocado en IA llamado BNH.ai, le dijo a TechCrunch que la FTC ya está "persiguiendo" lo que la FTC llama "restitución algorítmica", que es cuando la FTC "obliga a las empresas de tecnología a eliminar algoritmos problemáticos junto con cualquier dato ilícito que hayan utilizado para entrenarlos". Entonces parece posible que, si los artistas que demandan a los creadores de IA ganan o si la Oficina de Derechos de Autor proporciona una recomendación de este tipo, los encargados de hacer cumplir la ley puedan ordenar algún día a los creadores de imágenes de IA que vuelvan a entrenar los modelos utilizando solo datos permitidos y con licencia.

Si bien protecciones de derechos de autor más sólidas como esas probablemente suenen como una victoria para los artistas, puede que no sea lo mejor para el campo de la IA. The Atlantic informó que las empresas que adoptan más "alternativas amigables con los artistas" para no participar, como el reparto de ingresos o exigir a los artistas que decidan participar para que se hagan referencia a sus obras en el entrenamiento de modelos de IA, podrían terminar desplazando a las pequeñas empresas y beneficiando principalmente a las mayores empresas de tecnología que pueden permitirse esas alternativas. Eso podría resultar en una concentración aún mayor del poder sobre la IA en manos únicamente de las grandes empresas de tecnología, limitando potencialmente la innovación mientras profundizan los bolsillos de las empresas de IA que luchan contra reclamaciones legales.

A medida que funcionan las máquinas regulatorias, considerando la mejor manera de abordar las preocupaciones de derechos de autor de la IA, los artistas esperan que puedan pasar años antes de que cambien las leyes, según informó Bloomberg. Y mientras tanto, algunos artistas que temen ser reemplazados por robots están haciendo lo que mejor saben hacer: están siendo creativos.

En lugar de confiar en no participar en futuros conjuntos de datos de entrenamiento de IA, o como recomienda OpenAI, bloquear el acceso y el rastreo de los web crawlers de los creadores de IA a sus sitios en el futuro, los artistas están descubriendo cómo manipular sus imágenes para evitar que los modelos de IA interpreten correctamente su contenido.

Publicidad Un servicio lanzado en agosto, llamado Glaze, como informó Arstechnica, modifica ligeramente los píxeles en las imágenes de los artistas para engañar al modelo de IA y que vea un estilo artístico diferente. Y el creador de esa herramienta, un profesor de la Universidad de Chicago llamado Ben Zhao, está lanzando otra herramienta para ayudar aún más a los artistas a alterar la interpretación de sus obras por parte de los modelos de IA.

Nightshade, que según Bloomberg se lanzará en las próximas semanas, altera las imágenes de los artistas con la intención de corromper y destruir los modelos de entrenamiento de IA, según informó Arstechnica la semana pasada.

Funciona engañando a los modelos de IA para que identifiquen erróneamente objetos en las imágenes. A medida que aumenta la cantidad de imágenes envenenadas que se agregan a los datos de entrenamiento, teóricamente el modelo de IA se volverá más confundido.

El objetivo de esta herramienta es equilibrar el terreno de juego entre los entrenadores de modelos y los creadores de contenido", dijo Zhao a Ars en un comunicado. "En este momento, los entrenadores de modelos tienen el 100 por ciento del poder. Las únicas herramientas que pueden ralentizar a los rastreadores son las listas de exclusión y las directivas de no rastreo, todas opcionales y dependientes de la conciencia de las empresas de IA, y por supuesto, nada de ello es verificable ni exigible y las empresas pueden decir una cosa y hacer otra impunemente. Esta herramienta sería la primera en permitir a los propietarios de contenido contraatacar de manera significativa el entrenamiento no autorizado de modelos."

Para los creadores de IA, el uso generalizado de esta herramienta podría volverse tan problemático que podrían verse obligados a reentrenar sus modelos sin ninguna presión regulatoria.

Y, en última instancia, se puede argumentar que los creadores de IA necesitan a los artistas para apoyar sus búsquedas de innovación. Los artistas consideran que vale la pena señalar que las herramientas de IA solo serán tan poderosas como las obras de arte originales utilizadas para entrenarlas. Entonces, a largo plazo, las empresas de IA podrían arriesgarse a disminuir el valor de sus productos al alienar a los artistas cuyas obras siguen siendo clave para el éxito de sus modelos.

Las empresas de IA tendrán mucho terreno que cubrir si desean hacer las paces con los artistas que luchan por ver cómo los modelos de IA no han robado sus obras. Los artistas que están decididos a defender sus obras han descrito cómo se siente ver cómo las máquinas hacen presuntamente "falsificaciones" sin repercusiones como algo no solo "flagrantemente" violador, sino también "enfurecedor".