Nueva Delhi: Apple ha restringido internamente el uso del chatbot de IA ChatGPT y el Copilot de GitHub debido a preocupaciones de que sus datos confidenciales puedan acabar en manos de desarrolladores que entrenaron los modelos de IA con datos de usuario. Según informa The Wall Street Journal, el fabricante del iPhone está “preocupado de que los trabajadores puedan divulgar información confidencial mientras desarrolla su propia tecnología similar". Apple ha restringido el uso de ChatGPT y otras herramientas externas de IA para algunos empleados "mientras desarrolla su propia tecnología similar", según un documento revisado por WSJ. (También te puede interesar: El 47% de los estadounidenses utilizó ChatGPT para elegir acciones: estudio) El gigante de la tecnología está desarrollando sus propios modelos de IA generativos, pero no amplió en qué podrían ser utilizados, según el informe. En marzo, The New York Times informó que varios equipos en Apple, incluyendo el que trabaja en Siri, están experimentando con la generación de lenguaje mediante IA. (También te puede interesar: Apple eliminó 1,474 aplicaciones a petición del gobierno en 2022, 14 de ellas de la India)

Según informes, ChatGPT ha estado en la lista de software restringido de Apple durante meses. Samsung también ha bloqueado el uso de herramientas de IA generativas como ChatGPT en dispositivos de propiedad de la empresa, así como en dispositivos que funcionan en redes internas no pertenecientes a la empresa. Se dice que el gigante de Corea del Sur está desarrollando sus propias herramientas de IA internas para el "desarrollo de software y la traducción". La decisión aparentemente se tomó después de que se filtraran accidentalmente datos sensibles de Samsung a ChatGPT el mes pasado.

Organizaciones como Bank of America, Citi, Deutsche Bank, Goldman Sachs, Wells Fargo, JPMorgan, Walmart y Verizon también han restringido a sus empleados el acceso a ChatGPT.