MIE, 21 / OCT / 2020

Utilizan deepfakes para crear miles de imágenes falsas de mujeres desnudas

Los creadores del software señalaron que no es peligroso porque los resultados son poco realistas y de baja calidad. La empresa que informó sobre esta actividad apuntó que en algunos casos se ha involucrado a menores.

La inteligencia artificial ofrece muchas posibilidades interesantes para el futuro, tanto a nivel económico como en la vida diaria, el arte, la ciencia y muchos otros ámbitos.

Sin embargo también puede ser utilizada de forma incorrecta.

Un reciente reporte de la compañía Sensity ha revelado que más de 100 mil imágenes falsas de mujeres desnudas han sido creadas utilizando esta tencología.

La ropa de las víctimas es removida utilizando los algoritmos de una IA, el resultado es luego distribuido a través de Telegram.

Un riesgo para un futuro cercano

El mecanismo utilizado es un bot que crea deepfakes.

La mayoría de los resultados obtenidos por el software son en realidad mediocres. Al menos así se desprende de un experimento realizado por la BBC con consentimiento de las personas involucradas en las imágenes de prueba.

Los creadores del servicio señalan que su único propósito es el entretenimiento. El administrador ha afirmado que nadie puede extorsionar a nadie con la herramienta porque la calidad es baja y los resultados poco realistas.

Los deepfake han crecido enormemente, ya se los utiliza para crear videos pornográficos. Con la mejora constante en la tecnología la idea de que un servicio no produce daño porque la calidad de sus imágenes no es suficientemente buena suena a una defensa bastante pobre.

Menores

Según Sensity más de 104.852 mujeres han sido el objeto de estas falsificaciones. Muchas de las imágenes tenían menores de edad y la investigación de la empresa apunta a que se ha utilizado el servicio para generar y compartir contenido asociado a la pedofilia.

Según los desarrolladores del bot cuando se publican fotos que involucran a menores el equipo de trabajo del servicio las elimina.

¡Comparte esta noticia!