Agencia de EE.UU. advierte sobre uso de "bossware"
La agencia federal publicó su más reciente conjunto de guías el jueves sobre el uso de sistemas automatizados para la toma de decisiones laborales, como a quién contratar o ascende
Las herramientas de “bossware” operadas por inteligencia artificial que rastrean de cerca el paradero, las pulsaciones de teclas y la productividad de los trabajadores también pueden ser una violación de las leyes de discriminación, indicó la titular de la agencia estadounidense encargada de hacer cumplir los derechos civiles en los lugares de trabajo.
Charlotte Burrows, presidenta de la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC por sus siglas en inglés), dijo a The Associated Press que la agencia está tratando de educar a los empleadores y proveedores de tecnología sobre el uso de estas herramientas de vigilancia, así como herramientas de IA que agilizan el trabajo de evaluar las perspectivas laborales.
Y si no tienen cuidado con, por dar un ejemplo, los algoritmos draconianos de control de horarios que penalizan los descansos de mujeres embarazadas o de musulmanes que toman tiempo para rezar, o que permiten que un software defectuoso evalúe a los egresados de universidades para mujeres o históricamente negras, no pueden culpar a la IA cuando la EEOC intervenga.
“No tengo reparo para usar nuestra autoridad de aplicación cuando es necesario”, dijo Burrows. “Queremos trabajar con los empleadores, pero ciertamente no hay una exención a las leyes de derechos civiles dado que se involucran en la discriminación de alguna forma de tecnología de punta”.
La agencia federal publicó su más reciente conjunto de guías el jueves sobre el uso de sistemas automatizados para la toma de decisiones laborales, como a quién contratar o ascender. Explica cómo interpretar una disposición clave de la Ley de Derechos Civiles de 1964 conocida como Título VII que prohíbe la discriminación laboral por motivos de raza, color, origen nacional, religión o sexo, lo que incluye prejuicios contra los trabajadores homosexuales, lesbianas y transgénero.
Burrows dijo que un ejemplo importante involucra a los evaluadores de currículos ampliamente utilizados y si pueden o no producir un resultado sesgado si se basan en datos sesgados.
“Lo que sucederá es que hay un algoritmo que busca patrones que reflejan patrones con los que ya está familiarizado”, dijo. “Será capacitado en datos que provienen de sus empleados existentes. Y si actualmente tiene un grupo de empleados no diverso, es probable que termine excluyendo inadvertidamente a personas que no se parecen a sus empleados actuales”.
Mived aclara no firmó ningún acuerdo con empresa británica en Albania
Haitiano que atacó médicos del Darío Contreras se cubrió el rostro con lodo para no ser identificado
Condenan a un dominicano a nueve años de prisión por trata de personas en Puerto Rico
Fiscalía de Venezuela abre investigación por "traición" contra opositora María Corina Machado
Cancelado el concierto de Camila en Santo Domingo