Apple se une a la lista de empresas que impiden el uso de herramientas de inteligencia artificial (A.I.), como ChatGPT, por parte de sus empleados.

Apple está restringiendo a algunos trabajadores el uso de estas herramientas debido al temor de que puedan cargar información confidencial por error, según informes de The Wall Street Journal, citando un documento interno y fuentes de la empresa.

El fabricante del iPhone también está pidiendo a los empleados que no usen una herramienta similar propiedad de Microsoft, CoPilot de GitHub, que ayuda a escribir código.

Apple no respondió de inmediato a una solicitud de comentario.

OpenAI, propietario de ChatGPT, dice que utiliza interacciones y otros datos que los usuarios entregan para entrenar sus modelos, y advierte contra la carga de algo confidencial o sensible.

Muchas otras empresas han tratado de restringir el uso de ChatGPT y herramientas similares después de preocupaciones sobre la privacidad de los datos.

En enero, Amazon advirtió a sus empleados sobre la carga de información en tales servicios, mientras que bancos de Wall Street como JPMorgan y Bank of America han prohibido supuestamente a sus empleados usar ChatGPT.

Algunas empresas pueden haber sufrido ya una filtración de datos. Los medios de comunicación coreanos informaron en marzo que un ingeniero de Samsung había cargado el código fuente confidencial en ChatGPT para pedir su ayuda en la corrección de una base de datos defectuosa.

A principios de este mes, Samsung Electronics impuso una prohibición temporal de ChatGPT, señalando que el uso del servicio podría vulnerar la política de seguridad de la empresa. La compañía dijo que estaba trabajando en sus propias herramientas de A.I.

Los gobiernos también están preocupados por la privacidad.

Italia prohibió brevemente ChatGPT en el país debido a preocupaciones sobre la filtración de datos personales, aunque retiró la medida unas pocas semanas después de que OpenAI cumpliera con las exigencias del gobierno.

Privacidad de los datos

Los desarrolladores de A.I. están empezando a darse cuenta de que tanto las empresas como los usuarios están preocupados por la filtración de datos, y por lo tanto están comenzando a ofrecer opciones más privadas.

ChatGPT introdujo un denominado modo incógnito el mes pasado, que no guardaría permanentemente las conversaciones y las interacciones (aunque OpenAI dijo que aún mantendría temporalmente las interacciones para monitorizarlas en caso de abuso).

Microsoft también está trabajando en una versión privada del software de OpenAI, dirigida a las empresas, que también mantendría los datos corporativos privados y no los usaría para entrenar los modelos de A.I.

La privacidad tendría un costo, potencialmente diez veces mayor al de la versión regular de ChatGPT, según informa The Information. OpenAI también está trabajando en un "ChatGPT Business" que incluye controles de datos.

A principios de este mes, IBM anunció el lanzamiento de watsonx, un servicio de IA que también mantendría los datos privados. "Los clientes pueden entrenar y desplegar rápidamente capacidades personalizadas de IA en todo su negocio, todo ello conservando el control total de sus datos", dijo el CEO de IBM, Arvind Krishna, a principios de este mes.

ChatGPT en iPhone

 Mientras que los empleados de Apple pronto podrían verse restringidos en el uso de ChatGPT, los clientes de Apple podrían encontrar más fácil acceder a la herramienta de IA.

OpenAI lanzó una versión de ChatGPT para iOS, el sistema operativo utilizado en los iPhone y iPad de Apple, el miércoles. La aplicación es gratuita y sincroniza el historial de chats con la versión web. La aplicación incluso responde a las solicitudes de voz, utilizando la tecnología de reconocimiento de voz del desarrollador.

El desarrollador de ChatGPT dijo que la aplicación se lanzaría primero en EE. UU., seguido de "en las próximas semanas" en otros países. También está trabajando en una versión para el sistema operativo Android de Google.

La pantalla de bienvenida de la aplicación todavía advierte a los usuarios "no compartir información confidencial", señala The Verge. "Los chats anonimizados pueden ser revisados por nuestros entrenadores de IA para mejorar nuestro sistema", dice la aplicación.