Un abogado de Nueva York se ha metido en problemas en una demanda entre un hombre y la aerolínea Avianca Holding S.A. después de presentar citas inexistentes en el caso generado por ChatGPT.
El caso involucraba a un hombre llamado Roberto Mata demandando a Avianca, alegando que resultó herido cuando un carrito de servicio de metal golpeó su rodilla durante un vuelo. Las reclamaciones por lesiones suelen ser poco interesantes, aparte de las consideraciones culturales más amplias sobre cómo EE. UU. es tan litigioso, pero el caso tomó un giro interesante después de que la aerolínea intentara desestimar el caso.
El New York Times informó el sábado que en respuesta a la presentación, los abogados que representan a Mata presentaron un breve de 10 páginas citando más de media docena de casos judiciales relevantes, argumentando que los casos muestran el "efecto suspensivo del auto en un plazo de prescripción."
Un gran problema, sin embargo, es que ninguno de los casos era genuino. El abogado que creó el escrito, Steven A. Schwartz de la firma Levidow, Levidow & Oberman, había utilizado ChatGPT de OpenAI LP para escribirlo.
Schwartz, que se dice que ha ejercido la abogacía durante tres décadas, se defendió diciendo que no era consciente del potencial del AI de generar contenido falso. Schwartz le dijo al juez P. Kevin Castel que no tenía la intención de engañar a la corte ni a la aerolínea y se comprometió a no utilizar ChatGPT nuevamente sin una verificación exhaustiva. La situación poco común llevó al juez a convocar una audiencia sobre posibles sanciones contra Schwartz, describiendo el incidente como "circunstancias sin precedentes" llenas de "decisiones judiciales falsas".
El incidente ha generado discusiones entre la comunidad legal sobre los valores y riesgos de la IA. Stephen Gillers, profesor de ética legal en la Facultad de Derecho de la Universidad de Nueva York, le dijo al Times que el caso destaca que los profesionales del derecho no pueden simplemente tomar la salida de una IA y incorporarla en presentaciones judiciales. "La discusión ahora entre los profesionales del derecho es cómo evitar exactamente lo que describe este caso", agregó Gillers.
El caso crea un precedente debido al papel que juega la IA en la investigación y construcción de argumentos legales, lo que ha planteado graves preocupaciones sobre la confiabilidad de las herramientas de IA en la profesión legal. El caso también subraya los peligros potenciales de confiar en las salidas de IA no solo en presentaciones judiciales, sino también en uso general sin verificación secundaria.
Foto: Pixabay
"El CUBE es un socio importante para la industria. Realmente son parte de nuestros eventos y realmente apreciamos que vengan y sé que la gente también aprecia el contenido que crean" - Andy Jassy
¡GRACIAS!