El yunque está cayendo sobre la presencia de ChatGPT en el lugar de trabajo, por ahora.

Grandes compañías, incluyendo Amazon, Goldman Sachs y Verizon, han prohibido o restringido el chatbot propiedad de OpenAI, que explotó en popularidad a finales del año pasado. Muchos han citado riesgos de privacidad para las medidas de seguridad, ya que ChatGPT usa datos de conversaciones para mejorar su precisión, aunque los usuarios pueden optar por no participar a través de la configuración de ChatGPT o un formulario de Google.

Por supuesto, varias compañías utilizan ChatGPT y otras herramientas de inteligencia artificial generativa como Google Bard para mejorar la productividad y liberar tiempo de tareas menores como el redactado de correos electrónicos o la revisión de código. Compañías como Coca-Cola y Bain & Company incluso han firmado acuerdos con OpenAI.

Pero para muchos empresarios, los riesgos de seguridad pesan mucho más que los beneficios de productividad, como evidencia Samsung. A primeros de abril, la compañía informó que los empleados filtraron accidentalmente códigos fuente internos confidenciales y grabaciones de reuniones mientras usaban el chatbot (Samsung ha prohibido el uso del ChatGPT para empleados). Apple se convirtió en la última compañía en prohibir ChatGPT al momento de la publicación, citando preocupaciones similares sobre filtraciones de datos.

Estas compañías no están solas en su aprensión. Italia prohibió temporalmente el servicio, afirmando que OpenAI no cumple con la ley de privacidad GDPR de Europa, y la UE está a punto de aprobar una ley innovadora que regula el uso de la inteligencia artificial en el bloque.

Aunque el chatbot está actualmente restringido en ciertas oficinas, eso podría no ser siempre el caso. Algunas compañías, como JPMorgan Chase y Deutsche Bank, han indicado que permitirán ChatGPT si se somete a una revisión completa para su uso seguro. Otras, como Goldman Sachs y Samsung, están desarrollando sus propias herramientas de inteligencia artificial para uso de los empleados.

A continuación, se presentan las empresas que han prohibido o restringido a sus empleados el uso de ChatGPT en el trabajo.

Apple

Apple está restringiendo a sus trabajadores el uso de ChatGPT y otras herramientas de inteligencia artificial de terceros, citando preocupaciones acerca de las filtraciones de datos confidenciales. El gigante tecnológico también les ha comunicado a sus empleados que no utilicen el programa de escritura de código automatizado, Copilot, desarrollado por GitHub y OpenAI (ambos operados o respaldados por Microsoft). Se informa que Apple está desarrollando actualmente sus propias herramientas de inteligencia artificial, y contrató a John Giannandrea, un veterano de Google, para liderar sus esfuerzos en A.I. en 2018.

Bank of America

Bank of America añadió ChatGPT a su lista de aplicaciones no autorizadas que los empleados tienen prohibido usar para negocios, según informaron personas internas a Bloomberg en febrero. El banco es uno de muchos que ha implementado medidas de cumplimiento más estrictas en torno a las comunicaciones internas después de que los reguladores estadounidenses impusieran multas por más de $2 mil millones por la falta de supervisión del uso de aplicaciones de mensajería no autorizadas, como WhatsApp, por parte de los empleados.

Calix

El CEO de la compañía de telecomunicaciones Calix, Michael Weening, anunció en LinkedIn que la empresa prohibió el uso de ChatGPT en todas las funciones y dispositivos de la compañía en abril. La razón principal para la prohibición fue la filtración reciente de Samsung. Weening escribió que es "preocupante" que ChatGPT pueda exponer información sensible, como memorandos internos confidenciales o contratos de clientes bajo NDA, a terceros. "El mundo está cambiando. La gente necesita leer la letra pequeña (o la falta de ella) y educar a los equipos".

Citigroup

Citigroup añadió ChatGPT a los controles estándar a nivel de empresa para software de terceros, donde ciertas categorías de sitios web se restringen automáticamente. "Estamos explorando activamente varios enfoques que nos den una mejor comprensión de los beneficios y posibles riesgos asociados con el uso de esta tecnología", dijo un portavoz a Fortune.

Deutsche Bank

El acceso a ChatGPT se ha desactivado para el personal de Deutsche Bank desde al menos febrero. Un portavoz dijo a Fortune que la restricción es una práctica estándar para sitios web de terceros y que su objetivo es proteger al banco de posibles filtraciones de datos, en lugar de indicar la utilidad de la herramienta. Mientras tanto, el banco dice que evaluará la mejor forma de utilizar la plataforma para proteger los datos propios y de sus clientes. El banco está desarrollando chatbots con inteligencia artificial y fue un socio comercial temprano de las ofertas de inteligencia artificial generativa de Google Cloud.

Goldman Sachs

Al igual que Citigroup, Goldman Sachs bloqueó el acceso a ChatGPT para los empleados mediante una restricción automática en el software de terceros, como informó por primera vez Bloomberg en febrero.

Sin embargo, Goldman Sachs está en proceso de desarrollar sus propias herramientas de inteligencia artificial generativa. Marco Argenti, director de información de Goldman Sachs dijo que el banco tiene varios "conceptos probados" para simplificar tareas como la clasificación y categorización de documentos, resumen de llamadas de ganancias o investigaciones para un resumen diario.

JPMorgan Chase

El mayor banco de América limitó el uso de ChatGPT para sus empleados a finales de febrero, según una persona familiarizada con la decisión que informó a Bloomberg. La decisión es parte de los controles estándar para software de terceros, según la persona. Pero el banco podría estar abierto a usar la herramienta en el futuro, señalando en su informe anual de 2022 que "imagina nuevas formas de mejorar y empoderar a los empleados con la IA a través de herramientas y flujos de trabajo colaborativos centrados en el ser humano, aprovechando herramientas como los modelos de lenguaje de gran tamaño, incluyendo ChatGPT". El banco no respondió a la solicitud de aclaración de Fortune sobre cómo ha restringido su uso.

Northrup Grumman

La empresa de tecnología aeroespacial y de defensa bloqueó la herramienta a principios de este año, afirmando que no comparte información de la compañía o del cliente con herramientas externas hasta que sean evaluadas. Un empleado dijo al Wall Street Journal que usó el chatbot durante meses antes de la prohibición, haciendo preguntas conceptuales sobre código antes de convertir la respuesta en un código real. Comparó al bot con un "mentor muy inteligente y paciente que no se molesta por hacer muchas preguntas". Northrop Grumman no respondió a la solicitud de comentarios de Fortune.

Verizon

El gigante de las telecomunicaciones también está preocupado por la privacidad y la seguridad con ChatGPT. Verizon informó a los empleados a mediados de febrero que el programa no es accesible a través de los sistemas corporativos debido al riesgo de perder el control de información sensible como datos de clientes y código fuente. "Nuestra máxima prioridad son nuestros cuatro grupos de interés: comunidades, clientes, inversores/accionistas y sociedad, y tenemos que ser cuidadosos al presentar una tecnología nueva y emergente como ChatGPT", escribió un gerente de comunicaciones de Verizon a los empleados.

Samsung

Samsung con sede en Corea del Sur prohibió el uso de ChatGPT y otras herramientas de IA generativa por parte de sus empleados a principios de mayo. La restricción se produjo después de que los ingenieros filtraran accidentalmente información confidencial, incluyendo código interno y grabaciones de reuniones, en abril, al subirlo al chatbot. Los empleados tienen prohibido acceder a las herramientas en dispositivos propiedad de la compañía y en sus redes internas. No obstante, Samsung está creando sus propias herramientas de IA que los empleados pueden utilizar para el desarrollo de software, la traducción y la síntesis de documentos.

A continuación se presentan empresas que no han prohibido por completo ChatGPT, pero han pedido a los empleados que no compartan información confidencial en la plataforma:

Accenture

Accenture restringe a sus 700,000 empleados de usar ChatGPT y otras herramientas de IA generativa mientras programan, señalando que deben obtener permiso para compartir datos de la compañía o del cliente. Accenture no respondió a la solicitud de aclaración de Fortune sobre las restricciones.

Amazon

Amazon advirtió a sus empleados que no compartieran información confidencial de la empresa con ChatGPT, citando casos en los que las respuestas del chatbot se asemejaban a datos internos, según mensajes vistos por Insider.

Los empleados de Amazon han reportado haber recibido una advertencia emergente que señala que están ingresando a un sitio de terceros que "puede no estar aprobado para el uso por parte de la seguridad de Amazon" al visitar el sitio web de ChatGPT. Los ingenieros que buscan soporte de codificación son alentados a usar una herramienta de A.I. interna llamada CodeWhisperer. Sin embargo, no se les prohíbe utilizar ChatGPT o herramientas similares directamente. "Tenemos medidas de protección en su lugar para el uso de estas tecnologías por parte de los empleados, incluida la guía sobre el acceso a servicios de generación de A.I. de terceros y la protección de la información confidencial", dijo un portavoz a Fortune.

PwC Australia

La división australiana de la firma de servicios profesionales advirtió a sus empleados que no utilizaran ningún material o información generada por ChatGPT y prohibió la compartición de datos de la empresa o clientes con la herramienta, según un boletín interno.

No obstante, se permite el acceso a ChatGPT y se anima a los empleados a experimentar personalmente. Jacqui Visch, la Directora de Información y Digital de PwC Australia, dijo al Australian Financial Review que la empresa está investigando la ciberseguridad y las consideraciones legales antes de permitir que el chatbot se utilice para cualquier fin comercial.