Microsoft brevemente impidió que sus empleados usaran ChatGPT y otras herramientas de inteligencia artificial (IA) el 9 de noviembre, informó CNBC el mismo día.
CNBC afirmó haber visto una captura de pantalla que indicaba que el chatbot con IA, ChatGPT, no estaba accesible en los dispositivos corporativos de Microsoft en ese momento.
Microsoft también actualizó su sitio interno, indicando que debido a preocupaciones de seguridad y datos, "varias herramientas de IA ya no están disponibles para los empleados".
Esa notificación hacía alusión a las inversiones de Microsoft en la empresa matriz de ChatGPT, OpenAI, así como a las salvaguardias incorporadas en ChatGPT. Sin embargo, advirtió a los empleados de la empresa que no usaran el servicio ni a sus competidores, ya que el mensaje continuaba:
"[ChatGPT] es... un servicio externo de terceros... Eso significa que debes tener precaución al usarlo debido a los riesgos de privacidad y seguridad. Esto se aplica también a cualquier otro servicio externo de IA, como Midjourney o Replika".
CNBC también informó que Microsoft mencionó brevemente la herramienta de diseño gráfico con IA, Canva, en su notificación, aunque posteriormente eliminó esa línea del mensaje.
Microsoft bloqueó servicios accidentalmente
Según CNBC, Microsoft restableció el acceso a ChatGPT después de que publicara su cobertura del incidente. Un representante de Microsoft le informó a CNBC que la compañía activó accidentalmente la restricción para todos los empleados mientras probaba sistemas de control de puntos finales, diseñados para contener amenazas de seguridad.El representante dijo que Microsoft anima a sus empleados a usar ChatGPT Enterprise y su propio Bing Chat Enterprise, destacando que esos servicios ofrecen un alto grado de privacidad y seguridad.
La noticia llega en medio de preocupaciones generalizadas sobre la privacidad y seguridad en torno a la IA en los Estados Unidos y en el extranjero. Si bien la política restrictiva de Microsoft inicialmente parecía mostrar el desacuerdo de la compañía con el estado actual de la seguridad de la IA, parece que en realidad es un recurso que podría proteger contra futuros incidentes de seguridad.