El Ayuntamiento de la ciudad de Nueva York ha propuesto un proyecto de ley para regular la utilización de las herramientas de selección de personal basadas en la inteligencia artificial (IA).
Según informa el portal Wired, la legislación planteada obligaría a las empresas a notificar a los candidatos cuándo han sido evaluados con ayuda de software. Las compañías que venden tales herramientas también tendrían que realizar una "auditoría de sesgo" anual para verificar que su tecnología no discrimina por motivos de sexo, raza o edad, y poner los resultados a disposición de sus clientes.
"Como legisladores en una ciudad que alberga algunas de las corporaciones más grandes del mundo, debemos intervenir y prevenir la contratación injusta", declaró la miembro del consejo demócrata e impulsora de este proyecto de ley, Laurie Cumbo, el pasado mes de noviembre.
Siguiendo la información de Wired, la propuesta es parte de un movimiento reciente en todos los niveles de gobierno para "imponer restricciones legales a los algoritmos y al software que dan forma a decisiones que cambian la vida (de las personas). Un (proyecto de ley) que puede tomar una nueva orientación cuando los demócratas tomen el control de la Casa Blanca y de ambas cámaras del Congreso".
Su uso está muy extendido, pero se evidencian sesgos
La ciudad de Nueva York ha propuesto esta legislación en medio del auge que está experimentando el uso de la inteligencia artificial en la contratación. Las empresas de Fortune 500, incluidas Ikea y Unilever, son algunas de las que han utilizado estas herramientas en sus procesos de selección y cada vez son más las compañías que recurren a ellas. Sin embargo, diversos estudios han evidenciado que los algoritmos pueden replicar o magnificar los sesgos mostrados por las personas y ser discriminatorios.
Un famoso ejemplo de sesgo de la inteligencia artificial es la herramienta de contratación desarrollada internamente en Amazon, la cual tuvo que descartarse sin que llegara a ser utilizada porque discriminaba a las mujeres, según informó Reuters en 2018.
Las herramientas de reconocimiento facial que usan inteligencia artificial también han demostrado tener problemas para identificar rostros de personas de raza negra o para determinar el sexo de las personas.
Los legisladores han puesto el foco sobre estas tecnologías
Más de una docena de ciudades estadounidenses han prohibido el uso del reconocimiento facial por parte del gobierno y algunos legisladores han propuesto una legislación para regular las herramientas los algoritmos faciales y las herramientas de decisión automatizadas que utilizan las corporaciones, incluso para la contratación.
Así lo indica Wired, destacando también que en Maryland hay una ley que restringe el uso de la tecnología de análisis facial en la contratación y que en Illinois hay una legislación, que entró en vigor el año pasado, que requiere consentimiento antes de usar análisis de vídeo en candidatos a puestos de trabajo. Además, recuerda que el pasado mes de diciembre diez senadores pidieron a la Comisión de Igualdad de Oportunidades en el Empleo que controle los prejuicios en las herramientas de contratación de IA. Su argumento fue que temían que la tecnología pudiera profundizar las disparidades raciales en el empleo y dañar la recuperación económica de Covid-19 en comunidades marginadas.
"Los legisladores tienen más práctica en hablar sobre la regulación de nuevos algoritmos y herramientas de inteligencia artificial que en la implementación de tales reglas", señala Wired.
Detractores y partidarios
Por otra parte, el citado medio señala que algunos grupos de derechos civiles y expertos en inteligencia artificial se oponen a este proyecto de ley de la ciudad de Nueva York por diferentes razones. Entre ellas, que no esté bien definida para que sea eficaz. "Albert Fox Cahn, fundador del Proyecto de Supervisión de Tecnología de Vigilancia, organizó una carta de 12 grupos, incluidos la NAACP y el Instituto AI Now de la Universidad de Nueva York, objetando la ley propuesta. Cahn quiere regular la contratación de tecnología, pero dice que la propuesta de Nueva York podría permitir que el software que perpetúa la discriminación obtenga el sello de aprobación de una auditoría de equidad", explica.
También cita a Julia Stoyanovich, directora del Centro de IA responsable de la Universidad de Nueva York. Al igual que a Cahn, le preocupa que la "auditoría de sesgos" del proyecto de ley no esté bien establecida, pero aún así es una de las personas que apoya la propuesta de Nueva York.
"La razón por la que estoy a favor es que obligará a la gente a revelar que fueron evaluados en parte por una máquina y por un humano. Eso ayudará a que el público participe en la conversación", afirma Stoyanovich.