OpenAI cerró una herramienta que supuestamente distinguía la escritura humana de la IA debido a una baja tasa de precisión. En un blog (actualizado), OpenAI anunció que decidió terminar su clasificador de IA a partir del 20 de julio. "Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto", dijo la compañía.
Al cerrar la herramienta para detectar escritura generada por IA, OpenAI dijo que planea "desarrollar e implementar mecanismos que permitan a los usuarios entender si el contenido de audio o visual es generado por IA". Aunque aún no se sabe qué podrían ser esos mecanismos.
OpenAI admitió plenamente que el clasificador nunca fue muy bueno para detectar texto generado por IA y advirtió que podía arrojar falsos positivos, es decir, texto escrito por humanos etiquetado como generado por IA. OpenAI, antes de agregar su actualización para cerrar la herramienta, dijo que el clasificador podría mejorar con más datos.
Después de que ChatGPT de OpenAI irrumpiera en escena y se convirtiera en una de las aplicaciones de crecimiento más rápido, la gente se desesperó por entender la tecnología. Varios sectores alarmaron sobre el texto y arte generado por IA, especialmente los educadores que estaban preocupados de que los estudiantes ya no estudiaran y simplemente dejaran que ChatGPT escribiera sus tareas. Incluso las escuelas de Nueva York prohibieron el acceso a ChatGPT en las instalaciones escolares debido a preocupaciones sobre precisión, seguridad y trampa.
La desinformación a través de la IA también ha sido una preocupación, con estudios que muestran que el texto generado por IA, como los tweets, podría ser más convincente que los escritos por humanos. Hasta ahora, los gobiernos no han encontrado la forma de controlar la IA y, por lo tanto, están dejando que grupos y organizaciones individuales establezcan sus propias reglas y desarrollen sus propias medidas de protección para manejar la avalancha de texto generado por computadora. Y parece que por ahora, nadie, ni siquiera la compañía que ayudó a iniciar la locura de la IA generativa en primer lugar, tiene respuestas sobre cómo lidiar con todo esto. Aunque algunas personas son atrapadas, cada vez será más difícil diferenciar fácilmente el trabajo de la IA y el humano.
OpenAI también perdió recientemente a su líder de confianza y seguridad en un momento en que la Comisión Federal de Comercio está investigando a OpenAI para ver cómo verifica la información y los datos. OpenAI se negó a hacer comentarios más allá de su publicación en el blog.