Lunes, 7 de Octubre de 2019

Google suspende programa de reconocimiento facial por las malas prácticas de una contratista

Una de las empresas que había contratado para realizar las tareas de desarrollo se aprovechaba de la situación económica de estudiantes y personas sin hogar de raza negra para ofrecerles un pago menor a cambio de su participación como voluntarios en el estudio.

Google la ha puesto un alto a su programa de reconocimiento facial, no por falta de interés, no por haber descubierto un límite técnico que no podía resolver, tampoco por cambios de foco en sus estrategias de desarrollo, sino por las malas prácticas de una de las empresas que había contratado.

Hace unos días el periódico New York Daily News descubrió que una de las empresas que trabajaba para Google se aprovechaba de las personas afroamericanas sin hogar para sus investigaciones. A cambio de utilizar sus rostros para los trabajos de desarrollo se les pagaba con un cheque de regalo de unos USD 5.

A los encargados de encontrar voluntarios para los escanéos faciales se les había indicado que buscaran personas en situación de calle y estudiantes universitarios, considerando que estarían más dispuestos a recibir una compensación menor.

Sin conocimiento

Al parecer esta metodología se implementó sin el conocimiento de Google. Cuando la información llegó a la compañía se ordenó la suspensión del programa de investigación. El proyecto tenía como objetivo mejorar la función de reconocimiento facial, particularmente su falencia para leer e identificar rostros de raza negra.

Google señaló que tomaba con mucha seriedad las denuncias, y explicó que había decidido contratar a otras empresas para realizar los escanéos de voluntarios y estaba investigando lo ocurrido.

Falencias

Los sistemas de reconocimiento facial todavía están en un estado de desarrollo en el cuál si bien a menudo funcionan correctamente, no resultan confiables. Cuando se los han utilizado en programas de búsqueda de criminales han producido más falsos positivos que identificaciones correctas.

También se ha descubierto que por el modo en que son entrenados tienden a ser más efectivos ante la fisonomía de ciertos grupos étnicos que ante otros. En particular, una gran cantidad de sistemas han demostrado ser pésimos a la hora de identificar personas de raza negra.

Galería de Imágenes

Últimos lanzamientos Ver más