La jefa de la agencia estadounidense encargada de hacer cumplir los derechos civiles en el lugar de trabajo afirma que las herramientas de "jefatura" impulsadas por inteligencia artificial que rastrean de cerca la ubicación, pulsaciones de teclas y productividad de los trabajadores también pueden contravenir las leyes contra la discriminación.

Charlotte Burrows, presidenta de la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC, por sus siglas en inglés), dijo a The Associated Press que la agencia está tratando de educar a los empleadores y proveedores de tecnología sobre el uso de estas herramientas de vigilancia, así como de las herramientas de IA que simplifican el trabajo de evaluación de prospectos laborales.

Y si no tienen cuidado con, por ejemplo, algoritmos draconianos de seguimiento de horarios que penalizan los descansos para mujeres embarazadas o para musulmanes que se toman el tiempo para orar, o permiten que un software defectuoso descarte a graduados de universidades para mujeres o históricamente negras, no pueden culpar a la IA cuando la EEOC llame a su puerta.

"No me da vergüenza usar nuestra autoridad para hacer cumplir la ley cuando es necesario", dijo Burrows. "Queremos trabajar con los empleadores, pero ciertamente no hay ninguna exención a las leyes de derechos civiles porque se participa en la discriminación de alguna manera de alta tecnología".

La agencia federal publicó su último conjunto de directrices el jueves sobre el uso de sistemas automatizados en decisiones laborales, como a quién contratar o promocionar. Explica cómo interpretar una disposición clave de la Ley de Derechos Civiles de 1964 conocida como Título VII, que prohíbe la discriminación laboral por motivos raciales, de color, de origen nacional, religiosos o de sexo, que incluye el sesgo contra los trabajadores homosexuales, lesbianas y transgénero.

Burrows dijo que un ejemplo importante tiene que ver con los cribados de currículum ampliamente utilizados y si pueden producir o no un resultado sesgado si se basan en datos sesgados.

"Lo que sucederá es que hay un algoritmo que busca patrones que reflejan patrones con los que ya está familiarizado", explicó. "Será entrenado con datos que provienen de sus empleados actuales. Y si tiene un conjunto de empleados no diversos en la actualidad, es probable que termine expulsando a personas involuntariamente que no se parecen a sus empleados actuales".

Amazon, por ejemplo, abandonó su propia herramienta de escaneo de currículums para reclutar a los mejores talentos después de descubrir que favorecía a los hombres para los roles técnicos, en parte porque estaba comparando a los candidatos con la fuerza laboral tecnológica dominada por los hombres de la propia empresa.

Otras agencias, incluyendo el Departamento de Justicia, han estado enviando advertencias similares durante el último año, con conjuntos previos de directrices sobre cómo algunas herramientas de IA podrían discriminar a las personas con discapacidades y violar la Ley de Estadounidenses con Discapacidades.

En algunos casos, la EEOC ha tomado medidas. En marzo, el operador del sitio web de búsqueda de empleo en tecnología Dice.com llegó a un acuerdo con la agencia para poner fin a una investigación sobre acusaciones de que estaba permitiendo que los anunciantes de trabajo excluyeran a los trabajadores de origen estadounidense en favor de los inmigrantes que buscaban visas de trabajo. Para resolver el caso, la empresa matriz, DHI Group, acordó reescribir su programación para "raspar" en busca de lenguaje discriminatorio como "Solo H-1B", una referencia a un tipo de visa de trabajo.

Gran parte del trabajo de la EEOC implica investigar las denuncias presentadas por los empleados que creen que fueron discriminados. Y aunque es difícil para los solicitantes de empleo saber si una herramienta de contratación sesgada resultó en que se les negara un trabajo, Burrows dijo que hay "generalmente más conciencia" entre los trabajadores sobre las herramientas que se utilizan cada vez más para controlar su productividad.

Aquellas herramientas han variado desde dispositivos de radiofrecuencia para rastrear a enfermeras, hasta monitorear el horario minuto a minuto controlado de manera estricta de trabajadores de almacén y conductores de entrega, hasta el seguimiento de pulsaciones de teclas o clics de ratón de computadora, ya que muchos empleados de oficina comenzaron a trabajar desde casa durante la pandemia. Algunas de estas herramientas podrían violar las leyes de derechos civiles, dependiendo de cómo se utilicen.

Burrows señaló que también la Junta Nacional de Relaciones Laborales está examinando dichas herramientas de inteligencia artificial. La NLRB envió un memorando el año pasado advirtiendo que la vigilancia y las herramientas de gestión demasiado intrusivas pueden afectar los derechos de los trabajadores para comunicarse entre sí sobre la actividad sindical o las condiciones inseguras.

"Creo que el mejor enfoque en ese caso, no estoy diciendo que no se use, no es per se ilegal, pero es realmente pensar en qué es lo que los empleadores buscan medir y tal vez medir eso directamente", dijo Burrows. "Si estás tratando de ver si el trabajo se está haciendo, tal vez verificar que el trabajo se está haciendo".