Los desarrolladores de inteligencia artificial deben actuar rápidamente para crear y desplegar sistemas que aborden el sesgo algorítmico, dijo Kathy Baxter, Arquitecta Principal de Práctica de Inteligencia Artificial Ética en Salesforce. En una entrevista con ZDNET, Baxter resaltó la necesidad de representaciones diversas en conjuntos de datos y en investigaciones de usuario para asegurar sistemas de inteligencia artificial justos e imparciales. También destacó la importancia de hacer que los sistemas de inteligencia artificial sean transparentes, comprensibles y responsables mientras se protege la privacidad individual. Baxter enfatiza la necesidad de una colaboración entre sectores, como el modelo utilizado por el Instituto Nacional de Estándares y Tecnología (NIST), para que podamos desarrollar sistemas de inteligencia artificial robustos y seguros que beneficien a todos.

Una de las preguntas fundamentales en ética de inteligencia artificial es asegurarse de que los sistemas de inteligencia artificial se desarrollen y desplieguen sin reforzar los prejuicios sociales existentes ni crear nuevos. Para lograr esto, Baxter resaltó la importancia de preguntar quién se beneficia y quién paga por la tecnología de inteligencia artificial. Es crucial considerar los conjuntos de datos que se utilizan y asegurarse de que representen las voces de todos. La inclusión en el proceso de desarrollo e identificación de posibles daños a través de la investigación de usuario también es esencial.

"Esta es una de las preguntas fundamentales que tenemos que discutir", dijo Baxter. "Las mujeres de color, en particular, han estado haciendo esta pregunta e investigando en esta área durante años. Estoy emocionada de ver a mucha gente hablar de esto, particularmente con el uso de la inteligencia artificial generativa. Pero las cosas que necesitamos hacer, fundamentalmente, son preguntar quién se beneficia y quién paga por esta tecnología. ¿Cuáles son las voces que se incluyen?"

El sesgo social puede ser infundido en los sistemas de inteligencia artificial a través de los conjuntos de datos utilizados para entrenarlos. Los conjuntos de datos no representativos que contienen prejuicios, como los conjuntos de datos de imagen con una raza predominantemente representada o la falta de diferenciación cultural, pueden resultar en sistemas de inteligencia artificial con prejuicios. Además, la aplicación desigual de los sistemas de inteligencia artificial en la sociedad puede perpetuar los estereotipos existentes.

Para hacer que los sistemas de inteligencia artificial sean transparentes y comprensibles para la persona promedio, la priorización de la explicabilidad durante el proceso de desarrollo es clave. Técnicas como "cadenas de pensamiento" pueden ayudar a los sistemas de inteligencia artificial a mostrar su trabajo y hacer que su proceso de toma de decisiones sea más comprensible. La investigación de usuario también es vital para asegurar que las explicaciones sean claras y los usuarios puedan identificar las incertidumbres en el contenido generado por la inteligencia artificial.

Proteger la privacidad de los individuos y garantizar el uso responsable de la inteligencia artificial requiere transparencia y consentimiento. Salesforce sigue las directrices para la inteligencia artificial generativa responsable, que incluyen el respeto de la procedencia de los datos y el uso de los datos del cliente solo con su consentimiento. Permitir que los usuarios opten por participar, no participar o tener control sobre el uso de sus datos es fundamental para la privacidad.

"Solo usamos los datos de los clientes cuando tenemos su consentimiento", dijo Baxter. "Ser transparente cuando se utiliza los datos de alguien, permitir que opten por participar y permitirles volver atrás y decir que ya no quieren que sus datos estén incluidos es realmente importante".

A medida que la competencia por la innovación en la inteligencia artificial generativa se intensifica, mantener el control y la autonomía humanos sobre los sistemas de inteligencia artificial cada vez más autónomos es más importante que nunca. Empoderar a los usuarios para tomar decisiones informadas sobre el uso del contenido generado por la inteligencia artificial y mantener a un ser humano en el proceso puede ayudar a mantener el control.

Asegurar que los sistemas de inteligencia artificial sean seguros, confiables y utilizables es crucial; la colaboración a nivel de la industria es vital para lograr esto. Baxter elogió el marco de gestión de riesgos de inteligencia artificial creado por NIST en un enlace, el cual involucró a más de 240 expertos de diversos sectores. Este enfoque colaborativo proporciona un lenguaje común y un marco para identificar riesgos y compartir soluciones.

No abordar estos problemas éticos de IA puede tener graves consecuencias, como se ha visto en casos de arrestos injustos debido a errores de reconocimiento facial o la generación de imágenes dañinas. Invertir en salvaguardias y enfocarse en el aquí y ahora, en lugar de solo en posibles daños futuros, puede ayudar a mitigar estos problemas y garantizar el desarrollo y uso responsable de los sistemas de IA.

También: Cómo funciona ChatGPT

Si bien el futuro de la IA y la posibilidad de una inteligencia artificial general son temas intrigantes, Baxter enfatiza la importancia de centrarse en el presente. Asegurar el uso responsable de la IA y abordar los prejuicios sociales hoy, preparará mejor a la sociedad para futuros avances en IA. Al invertir en prácticas éticas de IA y colaborar entre industrias, podemos ayudar a crear un futuro más seguro e inclusivo para la tecnología de la IA.

"Creo que la línea de tiempo importa mucho," dijo Baxter. "Realmente tenemos que invertir en el aquí y ahora y crear esta memoria muscular, crear estos recursos, crear regulaciones que nos permitan seguir avanzando, pero hacerlo de manera segura".