Las compañías detrás de algunas de las herramientas de inteligencia artificial más populares de esta semana se defendieron de un informe ampliamente citado que afirmaba que los chatbots están proporcionando información peligrosa a jóvenes vulnerables que padecen trastornos alimentarios.
OpenAI, Google y Stability AI defendieron su tecnología a Decrypt después de su informe original de un estudio publicado por el Center for Countering Digital Hate, un informe que ya ha generado un debate en Washington, D.C.
"Se han lanzado al mundo modelos de inteligencia artificial generativa no probados y no seguros con la consecuencia inevitable de que están causando daño", escribió Imran Ahmed, director ejecutivo del centro. "Hemos encontrado que los sitios más populares de inteligencia artificial generativa están fomentando y exacerbando los trastornos alimentarios entre los jóvenes usuarios, algunos de los cuales pueden ser altamente vulnerables".
En "IA y trastornos alimentarios", el CCDH acusó a los chatbots de IA como el ChatGPT de OpenAI y el Bard de Google de promover trastornos alimentarios e imágenes corporales poco saludables e irreales, y de no hacer lo suficiente para proteger a los usuarios. Varias empresas de IA respondieron con puntos similares.
"Nos comprometemos a utilizar la tecnología de IA de manera segura y responsable", dijo Ben Brooks, jefe de Política de Stability AI, a Decrypt en un correo electrónico. "Stability AI prohíbe el uso indebido de Stable Diffusion con fines ilegales, engañosos o poco éticos, y seguimos invirtiendo en funciones para evitar el uso indebido de la IA para la producción de contenido dañino".
Según explicó Brooks, Stability AI filtra los estímulos e imágenes inseguras de los datos de entrenamiento de Stable Diffusion, en un intento de frenar la generación de contenido dañino antes de que los estímulos de los usuarios puedan generarlo.
"Siempre estamos trabajando para abordar los riesgos emergentes. Hemos añadido estímulos relacionados con trastornos alimentarios a nuestros filtros y estamos abiertos a dialogar con la comunidad de investigación sobre formas efectivas de mitigar estos riesgos", dijo Brooks.
OpenAI, los creadores del popular ChatGPT, también respondieron al informe del CCDH, diciendo que no desean que sus modelos se utilicen para obtener consejos que inciten al autolesionismo.
"Tenemos medidas de mitigación para evitar esto y hemos entrenado a nuestros sistemas de IA para que animen a las personas a buscar orientación profesional cuando se enfrentan a estímulos que buscan consejos sobre la salud", dijo un portavoz de OpenAI a Decrypt. "Reconocemos que nuestros sistemas no siempre pueden detectar la intención, incluso cuando los estímulos llevan señales sutiles. Seguiremos colaborando con expertos en salud para entender mejor lo que podría ser una respuesta benigna o perjudicial".
"Los trastornos alimentarios son problemas profundamente dolorosos y desafiantes, por lo que cuando las personas acuden a Bard en busca de estímulos sobre hábitos alimentarios, buscamos proporcionar respuestas útiles y seguras", dijo un portavoz de Google a Decrypt el martes. "Bard es experimental, por lo que alentamos a las personas a verificar la información en las respuestas de Bard, consultar a profesionales médicos para obtener orientación autorizada sobre cuestiones de salud y no depender únicamente de las respuestas de Bard para obtener consejos médicos, legales, financieros u otros consejos profesionales".
El informe del CCDH llega en un momento en que los desarrolladores de IA están haciendo todo lo posible por calmar los temores en torno a esta tecnología emergente.
En julio, varios de los principales desarrolladores de IA generativa, incluyendo a OpenAI, Microsoft y Google, se comprometieron a desarrollar una tecnología de IA segura, confiable y transparente. Las medidas prometidas incluyen compartir las mejores prácticas para la seguridad de la IA, invertir en ciberseguridad y salvaguardias contra amenazas internas e informar públicamente sobre las capacidades de sus sistemas de IA, limitaciones, áreas de uso apropiado e inapropiado y los riesgos sociales que plantea la tecnología.
En su informe, el CCDH dijo que pudo eludir las salvaguardias establecidas en los chatbots de IA utilizando comandos de "jailbreak" conocidos como prompts para no activar las medidas de seguridad del chatbot, como pedirle al chatbot que finja antes de ingresar el comando.
Si bien las empresas tecnológicas proporcionaron respuestas al informe a Decrypt, los autores del informe no tienen esperanzas de recibir noticias de los desarrolladores de chatbots en el corto plazo.
"No nos comunicamos con las empresas que estudiamos y, por lo general, ellas no se comunican con nosotros", dijo un representante del CCDH a Decrypt. "En este caso, no hemos tenido ningún contacto directo con ninguna de las empresas mencionadas".