Apple se ha convertido en la última empresa en prohibir el uso interno de ChatGPT y productos similares, irónicamente justo cuando el chatbot de OpenAI llega a iOS en forma de una aplicación móvil.
La noticia del movimiento fue revelada ayer por The Wall Street Journal, que revisó un documento interno de Apple informando a los empleados de la prohibición. Según el documento, las preocupaciones de Apple están en línea con otras empresas que también han prohibido el uso interno de ChatGPT, a saber, que la IA podría revelar información interna sensible compartida con ella.
Apple supuestamente también prohibió la herramienta de codificación automatizada de GitHub, Copilot. Han estado circulando rumores sobre los planes de IA de Apple durante algún tiempo, y la compañía posiblemente está trabajando en su propio LLM para competir con ChatGPT y Google Bard.
Cupertino no está sola en su decisión de prohibir el uso del chatbot respaldado por Microsoft: se une a una lista cada vez mayor de empresas como Amazon y una serie de bancos que incluyen JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank, entre otros.
El rival de Apple, Samsung, también tomó la decisión de prohibir el uso interno de ChatGPT, pero lo levantó en marzo. Sin embargo, en menos de un mes, se reveló por los medios coreanos que los empleados de Samsung habían pedido ayuda a ChatGPT para resolver errores de código fuente, corregir software utilizado para recopilar datos de rendimiento y conversiones de notas de reuniones en minutos. Samsung volvió a imponer la prohibición de ChatGPT a principios de este mes para evitar incidentes similares.
El problema con ChatGPT, Google Bard y los bots LLM es que los datos que se les alimentan se utilizan a menudo para entrenar aún más a los bots, lo que la agencia de espionaje del Reino Unido, GCHQ, ha advertido que puede llevar fácilmente a que la información comercial confidencial se regurgite si otros hacen preguntas similares.
Las consultas también son visibles para los proveedores de bots, como OpenAI y Google, quienes también pueden revisar el contenido que se les proporciona a sus modelos de lenguaje, lo que aumenta el riesgo de exposición de secretos corporativos bien protegidos.
Junto con el riesgo de que un bot comparta información confidencial al intentar ayudar a otros, también existe la posibilidad de que empresas como OpenAI simplemente no estén codificando el mejor software.
En marzo, OpenAI admitió que una falla en la biblioteca de código abierto redis-py permitió que partes del chat de las personas con ChatGPT fueran visibles para otros usuarios. Según el analista de datos líder de Kaspersky, Vlad Tushkanov, esa falla debe ser un recordatorio de que los chatbots LLM no ofrecen privacidad real a los usuarios.
OpenAI agregó el mes pasado la capacidad para que los usuarios de ChatGPT desactiven el historial de chat, lo que no solo oculta un chat de la barra lateral en la interfaz de ChatGPT, sino que también evita que los chats deshabilitados de historial se usen para entrenar los modelos de OpenAI.
OpenAI dijo que conservará las conversaciones durante 30 días aunque se deshabilite el historial, y tendrá la capacidad de revisarlas "cuando sea necesario para monitorear el abuso, antes de borrarlas permanentemente", dijo la compañía respaldada por Microsoft.
En el mismo anuncio, OpenAI también dijo que pronto lanzará una versión comercial de ChatGPT que ofrece a las empresas un mayor control sobre el uso de sus datos, por lo que OpenAI dijo que las conversaciones de ChatGPT Business no se utilizarán para entrenar sus LLM.
Preguntamos a OpenAI algunas preguntas adicionales sobre ChatGPT Business, como si el personal de OpenAI aún podría ver las conversaciones y cuándo podría ser lanzado, y actualizaremos esta historia si recibimos una respuesta.®