ChatGPT está tratando de ocultar que fue entrenado con material con derechos de autor, según una nueva investigación.

El ChatGPT de OpenAI, al igual que todos los demás modelos de lenguaje grandes o LLM (por sus siglas en inglés), ha sido entrenado con grandes cantidades de datos y texto extraídos de internet, incluyendo muchos libros que aún están bajo derechos de autor. La compañía ha sido objeto de un mayor escrutinio por utilizar ese trabajo sin pagar por la información a través de acuerdos de licencia u otras autorizaciones. Esto ha provocado demandas de autores.

La respuesta de OpenAI, al igual que Google, Meta y Microsoft, ha sido en su mayoría dejar de revelar en qué datos se entrenan sus modelos de IA.

Ahora, OpenAI ha ido un paso más allá, según sugiere un nuevo artículo de investigación.

ChatGPT ahora intenta evitar responder a las solicitudes de los usuarios con una redacción exacta de obras con derechos de autor, según un artículo técnico publicado el 8 de agosto por un grupo de científicos de IA que trabajan para el brazo de investigación de ByteDance, propietaria de TikTok.

La investigación se centró en cómo hacer que los LLM sean más "confiables" en su producción a través de diversas técnicas de "alineación" destinadas a mejorar la precisión, al admitir que las herramientas de IA que muestran que se entrenaron con material con derechos de autor "levantaron preocupaciones" para las empresas de IA.

En un esfuerzo por evitar mostrar que se entrenó con dicho material, ChatGPT ahora "interrumpe las salidas cuando se intenta extraer continuamente la siguiente oración... lo cual no ocurría en la versión anterior de ChatGPT", escribieron los investigadores. "Especulamos que los desarrolladores de ChatGPT han implementado un mecanismo para detectar si las solicitudes tienen como objetivo extraer contenido con derechos de autor o verificar la similitud entre las salidas generadas y el contenido protegido por derechos de autor".

A pesar de estos esfuerzos, el artículo encontró que ChatGPT aún mostraba material con derechos de autor. Al igual que muchos otros modelos de IA, dado que se han entrenado con grandes cantidades de material con derechos de autor. Los investigadores probaron todas las versiones de ChatGPT, OPT-1.3B de Meta, FLAN-T5 de Google, ChatGLM desarrollado por la Universidad Tsinghua de China y DialoGPT desarrollado por Microsoft; todos respondieron a varias solicitudes basadas en la serie de libros de Harry Potter de J.K. Rowling con frases y trabajos que coincidían exacta o casi exactamente con los libros. Algunas respuestas diferían solo en una o dos palabras, según el artículo.

"Todos los LLM emiten texto que se asemeja más a contenido con derechos de autor que a texto generado al azar", dijo el artículo. También encontró que no importa cuánto se "alinee" o se ajusten las salidas, no se evita mostrar obras con derechos de autor "porque la filtración de derechos de autor se refiere más a si los datos de entrenamiento incluyen texto con derechos de autor que a la alineación en sí misma".

OpenAI y el agente del libro de J.K. Rowling no respondieron a las solicitudes de comentario.

El documento se refiere a los modelos de IA que responden con material con derechos de autor como "fugas". Los investigadores sugirieron que los usuarios que incitan a estos modelos a mostrar trabajos con derechos de autor están "abusando" de la tecnología.

El documento también señaló el aparente trabajo de ChatGPT para ocultar el contenido con derechos de autor en el que fue entrenado como un ejemplo positivo de cómo otras herramientas de IA "pueden proteger el contenido con derechos de autor en LLMs al detectar indicaciones diseñadas maliciosamente".

¿Eres un empleado de tecnología o alguien más con información para compartir? Contacta a Kali Hays en [email protected], en la aplicación de mensajería segura Signal al 949-280-0267, o a través de Twitter DM en @hayskali. Comunícate utilizando un dispositivo no laboral.