En esta ilustración de fotografía, se puede ver el logo de ChatGPT, un chatbot lanzado por OpenAI, en un smartphone en... [ ] una mano. (Ilustración de foto de Pavlo Gonchar/SOPA Images/LightRocket via Getty Images)
SOPA Images/LightRocket vía Getty ImagesUn abogado que representa a un hombre en una demanda por lesiones personales en Manhattan se ha puesto a merced del tribunal. ¿Qué hizo mal el abogado? Presentó un documento de la corte federal que citó al menos seis casos que no existen. Lamentablemente, el abogado utilizó el chatbot de IA ChatGPT, que inventó completamente los casos de la nada.
El abogado en el caso, Steven A. Schwartz, representa a un hombre que demanda a Avianca Airlines después de que supuestamente un carrito de servicio golpeó su rodilla en 2019. Schwartz dijo que nunca había usado ChatGPT antes y que no tenía idea de que solo inventaría casos.
De hecho, Schwartz dijo que incluso preguntó a ChatGPT si los casos eran reales. El chatbot insistió en que lo eran. Pero solo después de que los abogados de la aerolínea señalaran en un nuevo documento que los casos no existían, Schwartz descubrió su error. (O el error de la computadora, dependiendo de cómo se vea).
El juez del caso, P. Kevin Castel, llevará a cabo una audiencia el 8 de junio sobre qué hacer en este enredo, según el New York Times. Pero, innecesario decir que el juez no está contento.
ChatGPT fue lanzado a fines de 2022 e instantáneamente se convirtió en un éxito. El chatbot es parte de una familia de nuevas tecnologías llamadas IA generativas que pueden mantener conversaciones con los usuarios durante horas y horas. Las conversaciones parecen tan orgánicas y normales que a veces ChatGPT parecerá tener mente propia. Pero la tecnología es notoriamente imprecisa y a menudo inventa hechos y fuentes de hechos que son completamente falsos. El competidor de Google, Bard, tiene problemas similares.
Pero ninguno de esos problemas ha impedido que la gente use esta tecnología experimental como si fuera una fuente confiable de información. Hay innumerables informes de niños que hacen que ChatGPT les escriba trabajos, y tantos informes de maestros que creen que solo pueden preguntarle a ChatGPT si se usó un trabajo. OpenAI, la compañía detrás de ChatGPT, ofrece un servicio que intenta detectar cuando se ha utilizado el chatbot de IA, pero se informa que ese detector tiene una precisión del 20%. Y si simplemente alimentas a ChatGPT párrafos aleatorios, la IA no puede decirte si los escribió. Lo intenté yo mismo a principios de este mes y ChatGPT siguió tomando crédito por el trabajo de otros.
Los chatbots como ChatGPT son controvertidos por varias razones, incluyendo el hecho de que algunos expertos en tecnología se preocupan de que la IA pueda salirse de control. Incluso algunas personas creen que la IA podría empezar a tener voluntad propia, iniciando un escenario similar al de Terminator, donde la humanidad es completamente destruida. El multimillonario Elon Musk insinuó tal posibilidad cuando recientemente pidió una pausa de seis meses en el desarrollo de IA, una pausa que probablemente tenía más que ver con el hecho de que estaba compitiendo para construir su propio competidor de ChatGPT. Musk fue uno de los cofundadores originales de OpenAI en 2015 antes de que fuera expulsado después de intentar tomar el control de la compañía en 2018.
Sin embargo, aún no estamos cerca de que las máquinas se rebelen contra toda forma de vida orgánica. Los chatbots como ChatGPT son simplemente formas más avanzadas de texto predictivo. Funcionan tratando de adivinar con una velocidad asombrosa lo que deberían decir, y esa rapidez a menudo hace que emitan mucha basura inexacta. En lugar de simplemente decir "no lo sé", la tecnología inventará una larga lista de fuentes que en realidad no existen. Y si le preguntas a ChatGPT si las fuentes son reales, te asegurará que sí lo son.
Los humanos hemos sido mimados por Google, un motor de búsqueda que, aunque imperfecto, intentará mostrar la información más precisa. Wikipedia, que fue recibida con escepticismo cuando se lanzó por primera vez, es generalmente una fuente confiable de información porque está siendo constantemente supervisado por expertos que se preocupan por hacer las cosas bien. ChatGPT no se preocupa si la información que está emitiendo es correcta. Es un truco de magia y las personas que han encontrado servicios populares como Google y Wikipedia precisos están en una desagradable sorpresa. Porque esta nueva generación de herramientas tecnológicas no se preocupa por la verdad. Fueron diseñados para sonar impresionantes, no para ser precisos. Y los usuarios de internet seguirán aprendiendo esa dura lección una y otra vez, a medida que la IA se incorpore en numerosas tecnologías que usamos todos los días.
El peligro de la IA puede no ser una tecnología que desarrolle una voluntad propia. El verdadero peligro, al parecer, es que los humanos simplemente crean cualquier cosa que digan las máquinas, sin importar cuán equivocadas estén. ChatGPT no sabe que está ofreciendo información inexacta. Entonces, depende de nosotros verificar los hechos y preocuparnos por hacer las cosas bien.