MAR, 19 / MAR / 2019

Facebook utilizará aprendizaje automático para combatir el Revenge Porn

La plataforma quiere evitar que se difundan imágenes y videos de personas desnudas sin el consentimiento de los involucrados. El desarrollo implementado tuvo sus primeras experiencias piloto en 2017.

Facebook tiene una gran cantidad de problemas, algunos de ellos son propios y de su absoluta responsabilidad, otros están más relacionados con la naturaleza humana y el mal comportamiento de algunas personas. Sin embargo en todos los casos la red social debe asumir el control sobre lo que sucede en sus páginas.

Uno de los males que la empresa está tratando de combatir es del Revenge Porn. Esto es la práctica de compartir públicamente videos de índole sexual sin el consentimiento de la pareja o las personas involucradas en el mismo y con la intención de producir un daño sobre la reputación o imagen. Este tipo de acción es especialmente grave dado que una vez que el material comienza a circular por Internet su supresión es prácticamente imposible.

Facebook ha señalado que planea utlizar tecnología de aprendizaje automático para detectar y bloquear las imágenes y los videos con desnudos completos o parciales que sean compartidos sin permiso antes incluso de que sean reportados. Un sistema de apelación permitirá a los usuarios disputar estas medidas en caso de ser injustificadas.

La compañía no ha dado grandes detalles sobre las técnicas que empleará en esta tarea, pero es de esperar que las capacidades de reconocimiento de personas que la red ha desarrollado durante años estén involucradas.

Complemento

De forma complementaria Facebook tiene hace tiempo un programa piloto que implementa en conjunto con asociaciones dedicadas a proteger a las víctimas de este tipo de delitos. El programa le permite a las personas utilizar una opción de emergencia con la que pueden subir una foto a Facebook. Esta foto permite la creación de una huella digital de la imagen que se utiliza para detener su divulgación en la plataforma.

¡Comparte esta noticia!