Un presentador estadounidense de radio presentó una demanda por difamación contra el desarrollador de ChatGPT, OpenAI, el 6 de junio debido a información falsa sobre él proporcionada por la plataforma, lo que, según el abogado Roy Keidar, plantea nuevos desafíos legales para las tecnologías de inteligencia artificial.
En mayo, un periodista que investigaba una demanda entre The Second Amendment Foundation v. Robert Ferguson recibió repetidamente información falsa de OpenAI de que el presentador de radio georgiano Mark Walters había defraudado y malversado fondos de la fundación.
Según la demanda de Walter, esto fue completamente inventado por ChatGPT. Ni Walter ni la criminalidad financiera se mencionan en ninguno de los documentos del caso.
Walters argumentó que ChatGPT perjudicó la reputación de Walter al proporcionar esta información falsa al periodista.
Según la presentación legal, la plataforma de inteligencia artificial a veces puede inventar hechos, un fenómeno del que OpenAI estaba al tanto y lo denominó "alucinación".
"Probablemente este no será el único, pero esta es la primera demanda que conocemos en este tema en Estados Unidos", dijo Keidar, socio de tecnologías emergentes en el bufete de abogados Arnon, Tadmor-Levy.
Keidar dijo que no creía que la demanda tuviera muchas posibilidades de éxito, ya que era difícil demostrar qué tan extendida estaba la información y cómo OpenAI había emitido advertencias y exenciones de responsabilidad sobre la plataforma.
"Aunque tenemos salvaguardas en su lugar, el sistema eventualmente puede generar información incorrecta o engañosa y producir contenido ofensivo o sesgado. No está diseñado para brindar consejos", advierte una alerta de inicio de sesión de ChatGPT. En la página de inicio hay otras dos advertencias, una que aclara aún más que se pueden producir respuestas incorrectas sobre "personas, lugares o hechos".
Keidar dijo que el caso es diferente de los anteriores porque la tecnología es revolucionaria. La información generativa de inteligencia artificial es completamente diferente de los resultados de los motores de búsqueda.
Los motores de búsqueda y las plataformas de redes sociales tienen protección para los resultados que recopilan bajo la Sección 230, un código de EE. UU. que se ha interpretado para significar que dichos sitios web no son responsables del contenido de terceros producido y compartido por los usuarios. Keidar dijo que aún no está claro si esta protección se extiende al aprendizaje automático y la IA, que utiliza contenido de terceros para aprender pero no proporciona el material original. También da su propio análisis, interpretaciones y conclusiones.
Keidar señaló otro incidente reciente en el que ChatGPT había dado información falsa a los profesionales: un abogado de Nueva York había utilizado el chatbot durante una investigación y presentó ante un juez precedentes legales falsificados. El abogado dijo que no tenía la intención de engañar al tribunal, ya que no sabía que la plataforma podía estar equivocada. A principios de junio, un juez de distrito de Texas prohibió las presentaciones generadas por IA.
"Se convierte en un gran problema ahora que más personas están usando y confiando en este tipo de herramientas en la vida cotidiana", dijo Keidar.
Keidar dijo que era concebible que periodistas como en el incidente de Walter pudieran escribir borradores de historias de noticias usando IA pero no verificar los hechos ni corregir las pruebas, lo que lleva a la proliferación de noticias falsas y contenido difamatorio. Estos periodistas podrían enfrentar graves demandas.
"La pregunta es quién es el responsable", dijo Keidar. Hay exenciones de responsabilidad en las plataformas, y "la responsabilidad recae en el usuario, 'usted está a cargo de la entrada', y luego es su responsabilidad si confía en la salida"'.
Por otro lado, la baja confianza de la información correcta la presenta como si fuera un hecho, y se desconoce cuánta información incorrecta hay oculta en las cosas en segundo plano.
Keidar dijo que era necesario un equilibrio en las políticas de la plataforma para protegerlas durante el desarrollo de la tecnología y también la protección del usuario. Recomendó que los reguladores en los Estados Unidos comiencen a considerar estas políticas.
A medida que más personas utilizan ChatGPT y otras plataformas de IA, surgirán nuevos desafíos legales a las leyes existentes. Los juristas y los reguladores deberían prepararse, pero quizás no deberían preguntarle a la IA cómo hacerlo.
Regístrese en el boletín de negocios e innovación >>
En este artículo, se alienta a los lectores a registrarse en el boletín de negocios e innovación. El registro brinda a los suscriptores acceso a información actualizada sobre estrategias empresariales innovadoras y noticias del mundo empresarial, incluidas startups y tecnologías emergentes.
Al registrarse, los suscriptores pueden mantenerse al día con las últimas tendencias y obtener información útil sobre cómo mejorar sus negocios. Además, el registro es gratuito y fácil de hacer a través del sitio web.
No se pierda la oportunidad de estar al tanto de las últimas noticias empresariales y de innovación. Regístrese hoy mismo en el boletín y obtenga una ventaja sobre la competencia.