Table of contents

La mayoría de las personas pueden cantar "Feliz cumpleaños" de memoria. Pero ¿sabes cómo aprendiste eso? ¿Quién te lo enseñó por primera vez? ¿Quién lo escribió? Tienes la letra y la melodía, y puedes enseñar a otros, pero probablemente no tienes idea de dónde proviene.

Esto describe efectivamente "el problema" con la inteligencia artificial generativa, y es un problema para las personas y organizaciones que la utilizan. Al igual que en los primeros días del software de código abierto y las licencias de software en general, la IA generativa es un territorio desconocido, es emocionante y hay mucho por aprender.

Incluso entre decidir desarrollar esta columna y sentarme a escribirla, decenas y decenas de noticias me distraen y confunden aún más los problemas de IA que estaba considerando, especialmente una historia sobre el CEO de OpenAI, Sam Altman, que le dijo al Senado que sí debería haber una agencia reguladora en su lugar en caso de que la tecnología se vuelva "descontrolada".

En otras palabras, la IA generativa es caótica.

La Harvard Business Review señala que la IA generativa tiene un problema de propiedad intelectual que abarca un conjunto complejo de preguntas:

- ¿Cómo deberían aplicarse las leyes existentes?

- ¿Qué debemos hacer con las infracciones?

- ¿Qué derechos tienen los usuarios de IA?

- ¿Qué derechos tienen los creadores de contenido?

- ¿Quién es dueño de las obras generadas por IA?

- ¿Debería utilizarse contenido no autorizado para entrenamiento?

- ¿Deberían los usuarios poder solicitar a los modelos de IA que citen las obras con licencia y no licenciadas en las que fueron entrenados?

¿Cómo llegamos a este punto tan rápido? Parte de la confusión radica en la opacidad del modelo de IA generativa.

El GPT en ChatGPT

Todo se remonta al "GPT" en ChatGPT. GPT significa generative pre-trained transformer. Un transformer no es tan grande, tiene alrededor de 2,000 líneas de código. Básicamente, es equivalente a una huevera, su principal objetivo es contener los "huevos", o las cosas que realmente tienen valor para los consumidores. En el caso de la IA generativa, los "huevos" son variables o pesos.

A veces, los humanos olvidan dónde aprendieron algo, pero a menudo pueden recordar y citar fuentes. A diferencia de un humano, ChatGPT y otras plataformas generadoras de IA en realidad no pueden recordar ninguna de la información que han absorbido, ni pueden citarla. Puede que exista un registro en algún lugar, pero no está en el propio modelo. Los usuarios no pueden escribir una indicación para citar los datos de entrenamiento. El modelo solo tiene un montón de números y variables. Es similar a un montón de neuronas, y además falsas. Estos modelos simplemente predicen estadísticamente la siguiente palabra basándose en un montón de contenido.

Entonces, ¿cómo solucionaremos el problema?

Se están explorando numerosos mecanismos para controlar el uso de modelos de IA, contenido generado y pesos:

  1. Regulación. El gobierno puede promulgar leyes para controlar cómo se puede utilizar la IA y prescribir castigos por infringir esas leyes.
  2. Licencias. Esto es un acuerdo legal escalable entre creadores y consumidores de software, prosa, imágenes, videos, etc. El código abierto se basa en los pilares de "derechos" y "libertades" habilitados por las licencias, pero la IA nos está obligando a reconsiderar (Llama y ChatGPT no son de código abierto) si la libertad absoluta es realmente la mejor solución.
  3. Contratos. Los creadores de contenido y aquellos que pagan por su creación a menudo tienen contratos cuando hacen negocios. Por ejemplo, el Sindicato de Escritores de América del Oeste propuso una cláusula venenosa en el contrato que impediría que cualquier contenido generado por IA sea protegido por derechos de autor. Los modelos de negocio de los estudios se basan en material con derechos de autor, por lo que esto dificultaría el uso de contenido generado por IA en lugar de escritores humanos.
  4. Controles técnicos: Al igual que en la seguridad, existe una diferencia entre "política" y "controles técnicos". Por ejemplo, hay una gran diferencia entre exigir que las personas cambien su contraseña cada 90 días y obligarlos a cambiar su contraseña cuando intentan iniciar sesión. De manera similar, muchas empresas e investigadores de IA están tratando de controlar lo que un modelo o servicio de IA hará y no hará, pero los usuarios están encontrando todo tipo de formas creativas de hacer que la IA haga cosas prohibidas utilizando ataques de inyección de indicaciones.

Soy escéptico de que alguno de los cuatro métodos anteriores controle realmente lo que las personas pueden hacer y no pueden hacer con la IA. Aunque, al igual que con el código abierto, creo que tener licencias consistentes y bien comprendidas será clave para su adopción generalizada por parte de las empresas.

El artículo de HBR al que hice referencia anteriormente está de acuerdo, señalando que las licencias serán clave para proteger tanto a los creadores de IA como a los consumidores. Pero, ¿cómo se va a lograr eso?

El Lejano Oeste de la IA

La emoción y la agitación que rodea a la IA generativa no es muy diferente de los primeros días del código abierto. Y, los primeros días del código abierto eran como el Lejano Oeste. Se estaban creando y utilizando licencias sin supervisión, lo que causaba incertidumbre y confusión, lo cual es lo contrario de lo que se supone que deben hacer las licencias. A finales de los años 90, la Iniciativa de Código Abierto (OSI) se hizo cargo y básicamente dijo: "Somos los guardianes de todo lo que es de código abierto". Hoy en día, tanto OSI como la Free Software Foundation publican definiciones de código abierto, que se utilizan para determinar la conformidad de las licencias de código abierto.

Y durante aproximadamente 25 años, más o menos pensamos que estábamos "terminados" con las licencias de código abierto. Pero debido a la IA (y otras cosas como los proveedores de servicios en la nube), vamos a tener que replantear los esquemas de licencia, o tal vez generar otros completamente nuevos. Los pesos, los modelos y los datos de entrenamiento probablemente necesiten licencias porque, sin entender bien todas las entradas y salidas, será difícil para las empresas adoptarlos.

La IA difumina estas líneas. Cuando los humanos generan conocimiento, es fácil entender la fuente y la ética detrás de la propiedad del conocimiento. Pero cuando empiezas a adentrarte en los modelos de IA, es como decir, "OK, ¿quién es dueño de esas cosas de todos modos?" Porque, seamos honestos, es razonable pensar que no todos los modelos se entrenan con contenido aprobado para ese uso. De hecho, creo que es bastante seguro decir que muchos de estos modelos violan derechos de autor y acuerdos de licencia. Pero, ¿cómo se puede demostrar? Solo son un montón de números en un modelo. ¿Cómo puedes demandar a alguien por eso?

Así como la OSI hizo con el código abierto, la OSI está interviniendo para tratar de poner algunos límites a todo esto. El proyecto Deep Dive de la OSI plantea que "la visión tradicional de un código fuente abierto que implementa algoritmos de IA puede no ser suficiente para garantizar la inspeccionabilidad y replicabilidad de los sistemas de IA". La OSI ha publicado una serie de podcasts sobre el tema y está llevando a cabo cuatro seminarios virtuales diseñados para "enmarcar una conversación para descubrir lo que es aceptable para que los sistemas de IA sean 'código abierto'". La OSI incluso tiene un blog sobre el resultado de la primera discusión comunitaria cara a cara: Conclusiones de la workshop "Definiendo la IA Abierta".

Si todo esto suena realmente confuso, es porque lo es. Y el panorama está cambiando día a día. Será muy importante para las organizaciones mantenerse al tanto de todas las noticias y hacer lo mejor que puedan para evitar el hype y el alarmismo y, en cambio, centrarse en lo que se puede hacer ahora para equilibrar los beneficios de la IA con la gobernanza y los límites.

Recomiendo encarecidamente prestar mucha atención al trabajo de la OSI y presionar a los proveedores con los que trabajes para que expliquen lo que están haciendo (y harán) para garantizar el uso eficaz y ético de la IA en un entorno de código abierto. El objetivo es ofrecer aplicaciones potenciadas por IA con una proveniencia confiable.

(Y, para constancia, "Feliz Cumpleaños", que se remonta a finales del siglo XIX, se deriva de una canción escrita por la maestra Patty Hill y su hermana, Mildred. A lo largo de los años, ha sido el centro de muchas batallas de derechos de autor y millones de dólares en concepto de licencias. En la actualidad, se encuentra en el dominio público.)

En Red Hat, Scott McCarty es el gerente principal de productos para RHEL Server, posiblemente el negocio de software de código abierto más grande del mundo. Scott es un veterano de startups en redes sociales, un antiguo experto en comercio electrónico y un experimentado tecnólogo de investigación gubernamental, con experiencia en una variedad de empresas y organizaciones, desde startups de siete personas hasta empresas tecnológicas con 12,000 empleados. Esto ha culminado en una perspectiva única sobre el desarrollo, entrega y mantenimiento de software de código abierto.

New Tech Forum brinda un espacio para explorar y discutir tecnología empresarial emergente en una profundidad y amplitud sin precedentes. La selección es subjetiva, basada en nuestra elección de tecnologías que consideramos importantes y de mayor interés para los lectores de InfoWorld. InfoWorld no acepta material de marketing para su publicación y se reserva el derecho de editar todo el contenido contribuido. Envíe todas las consultas a [email protected].

Derechos de autor © 2023 IDG Communications, Inc.