LUN, 11 / ENE / 2021

Nueva York regulará las IA utilizadas para contratar empleados

Las empresas deberán hacer público el uso de estas herramientas, y las desarrolladoras realizar revisiones para detectar cualquier posible prejuicio en los programas que distribuyen.

El consejo de la ciudad de Nueva York discutirá una propuesta que tiene como objetivo actualizar las leyes contra la discriminación.

La problemática que ha disparado esta necesidad es el uso creciente de sistemas automatizados para la toma de decisiones en el campo laboral, en particular para la contratación de personal.

La idea es poner reglas para los algoritmos y la inteligencia artificial que las empresas utilizan.

Algo más de transparencia

Bajo el nuevo esquemas las empresas deberán hacer público el uso de esta tecnología cuando se la emplee para decidir la contratación de personal o compensaciones.

Los distribuidores de software tendrán que realizar revisiones para buscar los prejuicios que sus productos pudieran replicar y dejar los resultados a disposición de sus clientes.

Rechazos

La propuesta ha encontrado la resistencia de grupos que rara vez suelen coincidir en sus objetivos. La Asociación de la Industria de los Datos del Consumidor ha señalado que el proyecto haría más difícil la revisión de los perfiles de los profesionales, una tarea que le permite a los empleadores superar la resistencia a contratar personas de ciertas extracciones demográficas.

Organizaciones de derechos civiles y expertos en IA han señalado que la propuesta podría validar sistemas que solo perpetúan la discriminación.

La propuesta deja el método de revisión en manos de las empresas y no tiene todavía claro como evitará los prejuicios.

Otros críticos han apuntado a las mismas fallas, pero han considerado que la ley supone un avance.

Contexto

Los sistemas automatizados, basados en las tecnología ya mencionadas, suelen basarse en complejos procesos de aprendizaje. Esto supone la consideración de una gran cantidad de datos y la creación de criterios que en ocasiones no son evidentes. Como consecuencia, la posible reproducción de prejuicios plasmados en los datos utilizados es un riesgo comprobado.

¡Comparte esta noticia!