Los grupos de inclusión se centran en promover constructores diversos para futuros proyectos de inteligencia artificial. Crédito: Shutterstock

La inteligencia artificial (IA) está enfrentando una crisis de diversidad. Si no se aborda de inmediato, las fallas en la cultura de trabajo de la IA perpetuarán los sesgos que se infiltran en las tecnologías resultantes, las cuales excluirán y perjudicarán a grupos enteros de personas. Además, la "inteligencia" resultante tendrá fallas, al carecer de conocimientos sociales, emocionales y culturales diversos.

Image of spectacles bringing into focus code snippets on a screen beyond

En un informe del 2019 del Instituto AI Now de la Universidad de Nueva York, los investigadores señalaron que más del 80% de los profesores de IA eran hombres. Además, las personas negras representaban solo el 2,5% de los empleados de Google y el 4% de quienes trabajaban en Facebook y Microsoft. Además, los autores del informe señalaron que el "enfoque abrumador en" las mujeres en tecnología "cuando se discuten los problemas de diversidad en IA "es demasiado estrecho y probablemente favorezca a las mujeres blancas sobre otras".

Algunos investigadores luchan por el cambio, pero también hay una cultura de resistencia a sus esfuerzos. "Bajo este velo de 'oh, la IA es el futuro y tenemos todas estas cosas bonitas y brillantes', tanto la academia como la industria de la IA son fundamentalmente conservadoras", dice Sabine Weber, una consultora científica en VDI / VDE Innovation Technik , una consultora tecnológica con sede en Berlín. La IA en ambos sectores está "dominada por hombres blancos de mediana edad de orígenes acomodados. Están realmente apegados al statu quo", dice Weber, quien es una organizadora principal del grupo de defensa Queer in AI. Nature habló con cinco investigadores que lideran esfuerzos para cambiar el statu quo y hacer que el ecosistema de IA sea más equitativo.

DELALI AGBENYEGAH: Fortalecer la IA africana

Gerente senior de ciencia de datos en Shopify en Atlanta, Georgia, y presidente general de la conferencia Deep Learning Indaba 2023.

Soy originaria de Ghana e hice mi maestría en estadística en la Universidad de Akron en Ohio en 2011. Mi experiencia se basa en el uso de aprendizaje automático para resolver problemas empresariales en la gestión de la experiencia del cliente. Aplico mis habilidades analíticas para construir modelos que impulsan el comportamiento del cliente, como sistemas de recomendación de clientes objetivo, aspectos del scoring de clientes potenciales: la clasificación de clientes potenciales, y la priorización de a quiénes contactar para diferentes comunicaciones, etc.

Este año, también soy presidente general de la Deep Learning Indaba, una reunión de la comunidad africana de aprendizaje automático e IA que se celebra en un país africano diferente cada año. El año pasado, se celebró en Túnez. Este año tendrá lugar en Ghana en septiembre.

Nuestra organización está construida para toda África. El año pasado, participaron 52 países. El objetivo es tener representados los 54 países africanos. Deep Learning Indaba capacita a cada país para tener una red de personas que impulsan las cosas localmente. Tenemos el evento principal, que es la conferencia anual, y eventos IndabaX específicos por país (piense en las charlas TED y TEDx).

Durante las conferencias IndabaX de Ghana, capacitamos a las personas en cómo programar y cómo tratar diferentes tipos de datos. También hacemos talleres sobre lo que está sucediendo en la industria fuera de Ghana y cómo debe involucrarse Ghana. IndabaX proporciona financiamiento y recomienda oradores que son investigadores establecidos que trabajan para empresas como Deep Mind, Microsoft y Google.

Para fortalecer el aprendizaje automático y la IA y la inclusión en Ghana, necesitamos desarrollar la capacidad capacitando a jóvenes investigadores y estudiantes para comprender las habilidades y la preparación que necesitan para destacar en este campo. El principal desafío que enfrentamos es la falta de recursos. Nuestra situación económica es tal que el enfoque del gobierno y de la mayoría de los ghaneses está en el pan diario de las personas. La mayoría de los ghaneses ni siquiera están pensando en transformación tecnológica. Muchos académicos locales no tienen la experiencia para enseñar a los estudiantes, para realmente fundamentarlos en la IA y el aprendizaje automático.

La mayoría de los algoritmos y sistemas que usamos hoy en día fueron creados por personas fuera de África. La perspectiva de África está ausente y, consecuentemente, los sesgos afectan a África. Cuando hacemos IA relacionada con imágenes, no hay muchas imágenes africanas disponibles. Los puntos de datos africanos representan no más del 1% de la mayoría de los conjuntos de datos de aprendizaje automático en la industria.

En lo que respecta a los coches autónomos, la red de carreteras de Estados Unidos es bonita y limpia, pero en África la red es muy accidentada y tiene muchos baches. No hay forma de que un coche autónomo entrenado en las carreteras de Estados Unidos o Reino Unido pueda funcionar en África. También esperamos que el uso de IA para ayudar en el diagnóstico de enfermedades transforme la vida de las personas. Pero esto no ayudará a África si las personas no van allí para recopilar datos y entender el cuidado de la salud y los sistemas de apoyo social relacionados con la enfermedad y el entorno en el que viven las personas.

Hoy en día, los estudiantes africanos de IA y aprendizaje automático deben buscar becas y salir de sus países para estudiar. Quiero ver este cambio y espero ver a los africanos involucrados en la toma de decisiones, liderando grandes avances en la investigación de aprendizaje automático e IA.

Los investigadores fuera de África pueden apoyar la IA africana mediante mentoría y colaboración con los esfuerzos africanos existentes. Por ejemplo, tenemos Ghana NLP, una iniciativa centrada en la creación de algoritmos para traducir el inglés a más de tres docenas de lenguas ghanesas. Los investigadores globales que se ofrecen voluntariamente para contribuir con su conjunto de habilidades a la investigación específica de África ayudarán a esfuerzos como este. Deep Learning Indaba tiene un portal en el que los investigadores pueden registrarse para ser mentores.

MARIA SKOULARIDOU: Desmantelar la cultura capacitista de la IA

Candidata a doctorado en bioestadística en la Universidad de Cambridge, Reino Unido, y fundadora y presidenta de {Dis}Ability in AI.

Maria Skoularidou at her computer in Cambridge, UK.

Fundé {Dis}Ability in AI en 2018, porque me di cuenta de que las personas discapacitadas no estaban representadas en las conferencias y no me parecía correcto. Quería iniciar este movimiento para que las conferencias pudieran ser inclusivas y accesibles, y que las personas discapacitadas como yo pudieran asistir.

Ese año, en NeurIPS, la conferencia anual sobre Sistemas de Procesamiento de la Información Neural, en Montreal, Canadá, asistieron al menos 4,000 personas y no pude identificar a una sola persona que pudiera ser categorizada como discapacitada visiblemente. Estadísticamente, no tiene sentido no tener participantes discapacitados.

También observé muchos problemas de accesibilidad. Por ejemplo, vi pósters que no eran considerados con respecto a la daltonismo. El lugar estaba tan lleno que las personas que usan dispositivos de asistencia, como sillas de ruedas, bastones blancos o perros de servicio, no habrían tenido espacio para navegar por la sesión de pósters. Había ascensores, pero para alguien con movilidad limitada, no habría sido fácil acceder a todas las salas de sesión, dada el tamaño del lugar. También faltaban intérpretes de lengua de signos.

Desde 2019, {Dis}Ability in AI ha ayudado a facilitar una mejor accesibilidad en NeurIPS. Hubo intérpretes y subtitulado para personas con problemas de audición. Se ofrecieron escoltas voluntarias para personas con movilidad o visión reducida que solicitaron ayuda. Hubo consejeros telefónicos y salas tranquilas porque las grandes conferencias pueden ser abrumadoras. La idea era: esto es lo que podemos proporcionar ahora, pero comuníquense con nosotros en caso de que no seamos considerados en algo, porque queremos ser éticos, justos, iguales y honestos. La discapacidad es parte de la sociedad y debe representarse e incluirse.

Muchos investigadores discapacitados han compartido sus temores e inquietudes acerca de las barreras que enfrentan en la IA. Algunos han dicho que no se sentirían seguros compartiendo detalles sobre su enfermedad crónica, porque si lo hicieran, podrían no ser promovidos, ser tratados de manera igualitaria o tener las mismas oportunidades que sus colegas, recibir el mismo salario, entre otros. Otros investigadores de IA que me contactaron habían sido intimidados y sentían que si volvían a hablar de su condición, podrían incluso perder sus trabajos.

Las personas de grupos marginados necesitan participar en todos los pasos del proceso de inteligencia artificial. Cuando las personas discapacitadas no están incluidas, los algoritmos se entrenan sin tener en cuenta nuestra comunidad. Si una persona sin discapacidad cierra los ojos, eso no les hace entender con qué debe lidiar una persona ciega. Necesitamos participar en estos esfuerzos. Ser amable es una forma en la que los investigadores sin discapacidad pueden hacer que el campo sea más inclusivo. Las personas sin discapacidad pueden invitar a personas discapacitadas a dar charlas o a ser visitantes u colaboradores de investigación. Necesitan interactuar con nuestra comunidad de manera justa y equitativa.

WILLIAM AGNEW Y SABINE WEBER: La IA queer

William Agnew es un candidato a doctorado en informática en la Universidad de Washington en Seattle. Sabine Weber es consultora científica en VDI/VDE Innovation Technik en Erfurt, Alemania. Son organizadores de la organización de defensa Queer in AI.

Agnew: Ayudé a organizar el primer taller de Queer in AI en NeurIPS en 2018. Fundamentalmente, el campo de la IA no se toma en serio la diversidad y la inclusión. En cada paso del camino, los esfuerzos en estas áreas están subfinanciados y subvalorados. El campo a menudo protege a los acosadores.

La mayoría de las personas que trabajan en Queer in AI son estudiantes graduados, incluyéndome a mí. Se puede preguntar: "¿Por qué no es el profesor senior? ¿Por qué no es el vicepresidente de lo que sea?" La falta de miembros seniores limita nuestra operación y lo que tenemos recursos para defender.

Las cosas que defendemos suceden de abajo hacia arriba. Pedimos baños neutrales en cuanto al género; poner los pronombres en las credenciales de registro, biografías de los oradores y en las encuestas; oportunidades para llevar a cabo nuestra encuesta sobre experiencias de IA queer, para recopilar datos demográficos, experiencias de daño y exclusión, y las necesidades de la comunidad queer AI; y nos oponemos a las políticas de extracción de datos. Nosotros, un grupo de personas queer que son marginadas por su queeridad y que son las personas más jóvenes en nuestro campo, debemos abogar desde esas posiciones.

En nuestras encuestas, las personas queer nombran consistentemente la falta de comunidad, apoyo y grupos de referencia como sus mayores problemas que podrían impedirles continuar en una carrera en IA. Uno de nuestros programas otorga becas para ayudar a las personas a postularse a la escuela de posgrado, para cubrir las tarifas de solicitud, los exámenes de admisión estandarizados, como el Examen de Registro de Graduados (GRE) y las transcripciones universitarias. Algunas personas deben volar a otro país para tomar el GRE. Es una barrera enorme, especialmente para las personas queer, que tienen menos probabilidades de recibir apoyo financiero de sus familias y que experimentan entornos legales represivos. Por ejemplo, las legislaturas estatales de EE. UU. están aprobando leyes anticuáricas y anti-queer que afectan a nuestra membresía.

En gran parte debido a mi trabajo con Queer in AI, cambié de ser un robocista a ser un ético. Cómo se usan, recopilan y abusan los datos de las personas queer es una gran preocupación. Otra preocupación es que el aprendizaje automático es fundamentalmente sobre categorizar elementos y personas y predecir resultados en base al pasado. Estas cosas son antitéticas a la noción de queer, donde la identidad es fluida y cambia a menudo de maneras importantes y grandes, y con frecuencia a lo largo de la vida. Luchamos y tratamos de imaginar sistemas de aprendizaje automático que no repriman la queeridad.

Podrías decir: "Estos modelos no representan la queeridad. Los arreglaremos". Pero las personas queer han sido durante mucho tiempo el objetivo de diferentes formas de vigilancia dirigidas a sacarlas del armario, controlarlas o suprimirlas, y un modelo que entienda bien a las personas queer también puede vigilarlas mejor. Deberíamos evitar construir tecnologías que afiancen estos daños y trabajar hacia tecnologías que empoderen a las comunidades queer.

Weber: Anteriormente, trabajé como ingeniera en una empresa tecnológica. Le dije a mi jefe que yo era la única persona que no era hombre cisgénero en todo el equipo de unos 60 desarrolladores. Respondió: "Eras la única persona que se postuló para tu trabajo que tenía la calificación. Es tan difícil encontrar personas calificadas".

Pero las empresas claramente no buscan muy duro. Para ellas, se siente como: "Estamos sentados en nuestro trono. Todo el mundo viene y se ofrece". En lugar de eso, las empresas podrían contratar a personas en organizaciones queer, en organizaciones feministas. Cada universidad tiene un grupo de mujeres en ciencia, tecnología, ingeniería y matemáticas (STEM) o un grupo de mujeres en cómputo al que las empresas podrían ir fácilmente.

Pero el pensamiento "así es como siempre lo hemos hecho; no sacudas el barco" es prevalente. Es frustrante. En realidad, realmente quiero sacudir el barco, porque el barco es estúpido. Es una gran decepción encontrarse con estas barreras.

Laura Montoya fomenta a quienes, como ella, llegaron al campo de la inteligencia artificial a través de una ruta no convencional. Crédito: Tim McMacken Jr ([email protected])

Laura Montoya speaking.

LAURA MONTOYA: Evolucionar para satisfacer las necesidades de la comunidad Latinx

Directora ejecutiva del Instituto Accel.AI y LatinX en AI en San Francisco, California.

En 2016, comencé el Instituto Accel.AI como compañía de educación que ayuda a personas subrepresentadas o desatendidas en AI. Ahora, es una organización sin fines de lucro con la misión de impulsar iniciativas de impacto social en AI. También cofundé el programa LatinX en AI, un organismo profesional para personas de origen latinoamericano en el campo. Soy de primera generación en los Estados Unidos, porque mi familia emigró de Colombia.

Mi experiencia está en biología y ciencias físicas. Comencé mi carrera como ingeniera de software, pero la ingeniería de software convencional no era gratificante para mí. Fue entonces cuando descubrí el mundo del aprendizaje automático, la ciencia de datos y AI. Investigé la mejor manera de aprender sobre AI y aprendizaje automático sin ir a la universidad. Siempre he sido una pensadora alternativa.

Me di cuenta de que había una necesidad de opciones educativas alternativas para personas como yo, que no siguen la ruta típica, que se identifican como mujeres, que se identifican como personas de color, que desean seguir un camino alternativo para trabajar con estas herramientas y tecnologías.

Más tarde, mientras asistía a grandes conferencias de AI y aprendizaje automático, conocí a otros como yo, pero éramos una pequeña parte de la población. Me reuní con estos pocos amigos para brainstorming, "¿Cómo podemos cambiar esto?" Así nació LatinX en AI. Desde 2018, hemos lanzado talleres de investigación en importantes conferencias y organizamos nuestro propio llamado de documentos en conjunto con NeurIPS.

También tenemos un programa de mentoría de tres meses para abordar la fuga de cerebros que resulta de los investigadores que abandonan América Latina por América del Norte, Europa y Asia. Los miembros más antiguos de nuestra comunidad e incluso aliados que no son LatinX pueden servir como mentores.

En 2022, lanzamos nuestro programa de supercomputación, porque la potencia informática es severamente deficiente en gran parte de América Latina. Para nuestro programa piloto, para proporcionar acceso a la investigación a recursos de computación de alto rendimiento en el campus de Guadalajara del Instituto Tecnológico de Monterrey en México, la empresa tecnológica NVIDIA, con sede en Santa Clara, California, donó un sistema DGX A100 —esencialmente un gran ordenador servidor. La agencia gubernamental para la innovación en el estado mexicano de Jalisco hospedará el sistema. Los investigadores y estudiantes locales pueden compartir el acceso a este hardware para la investigación en AI y deep learning. Lanzamos una convocatoria global de propuestas para equipos que incluyen al menos 50% de miembros Latinx que deseen utilizar este hardware, sin necesidad de estar inscritos en el instituto o incluso estar ubicados en la región de Guadalajara.

Hasta ahora, se han seleccionado ocho equipos para participar en la primera cohorte, trabajando en proyectos que incluyen aplicaciones de conducción autónoma para América Latina y herramientas de seguimiento para la conservación de animales. Cada equipo tiene acceso a una unidad de procesamiento gráfico, o GPU —diseñada para manejar tareas complejas de procesamiento de gráficos y datos visuales en paralelo— por el período de tiempo que soliciten. Esta será una oportunidad para la colaboración cruzada, para que los investigadores se unan para resolver grandes problemas y utilicen la tecnología para el bien.

doi: https://doi.org/10.1038/d41586-023-01689-4