Las modelos de inteligencia artificial generativa mejoran continuamente su rendimiento utilizando las interacciones del usuario para refinar sus algoritmos. Como resultado, incluso la información confidencial en sus preguntas podría ser potencialmente utilizada para seguir formando el modelo.

Por esa razón, la privacidad de los datos es uno de los mayores desafíos que rodean a la inteligencia artificial generativa, incluyendo ChatGPT en particular.
También: OpenAI lanzó una aplicación gratuita de ChatGPT para iPhone. ¿Cumple con las expectativas?
Los temores sobre fugas de datos han hecho que muchas empresas, como Verizon, JPMorgan Chase y Amazon, restrinjan el uso de ChatGPT por parte de los empleados. Ahora Apple se suma a la lista.
Según documentos revisados por el Wall Street Journal, ChatGPT y otras herramientas externas de IA, como Github Copilot de propiedad de Microsoft, han sido restringidas para algunos empleados.
Las preocupaciones surgen a partir del potencial de liberación involuntaria de información privada al utilizar estos modelos, lo que ha ocurrido antes.
También: La mayoría de los estadounidenses piensa que la IA amenaza a la humanidad, según una encuesta.
El ejemplo más reciente es el corte de ChatGPT del 20 de marzo, que permitió a algunos usuarios ver los títulos de la historia de chat de otros usuarios. Este evento provocó que Italia prohibiera temporalmente ChatGPT.
OpenAI ha intentado abordar las preocupaciones sobre los datos antes. A finales de abril, OpenAI lanzó una función que permite a los usuarios apagar su historial de chat. Esto les da a los usuarios más control sobre sus propios datos, permitiéndoles elegir qué chats pueden ser utilizados para entrenar los modelos de OpenAI y cuáles no.