LUN, 4 / OCT / 2021

Ex ejecutiva denuncia como el contenido tóxico es clave para el negocio de Facebook

Frances Hausen es la responsable de la filtración de varios documentos de la compañía que muestran como la empresa ha ignorado su responsabilidad en la difusión de desinformación y el impacto nocivo de Instagram en la salud mental de los adolescentes.

Hace unos días les contamos como el consejo asesor de contenido advirtió a Facebook que debía ser más transparente sobre sus políticas de moderación de contenido y la creación de listas blancas.

Esto sucedió luego de que una fuente le informara al Wall Street Journal que los mecanismos de la empresas son permisivos con las figuras más populares de sus redes sociales.

El Consejo Asesor de Contenido pone la mira en el modo en que Facebook examina las publicaciones de los usuarios de alto perfil

Los documentos internos aportados como evidencia mostraban que Facebook no solo miraba para otro lado cuando los VIP rompían las reglas sino que sabía como Instagram afectaba la salud mental de los adolescentes.

Esta fue una de las causas de la suspensión de la versión de Instagram para los menores de 13 años.

Facebook pone en pausa la versión de Instagram para menores

Testimonio

La fuente del WSJ ha decidido dar la cara. Frances Haugen ha aparecido en el conocido programa periodístico 60 minutos.

Haugen llegó a Facebook en 2019, trabajó en aspectos relacionados con la democracia y la desinformación y fue líder de producto hasta dejar la empresa en mayo de 2021.

La ejecutiva realizó todos los pasos legales para cubrir su espalda, incluso se presentó en el registro de fuentes de la Comisión de Bolsa y Valores de los Estados Unidos para obtener su protección.

Palabras vacías

Haugen apuntó que Facebook actúa de una forma que no se corresponde con sus declaraciones públicas.

Sobre el ataque al capitolio en Estados Unidos por parte de seguidores del ex presidente Donald Trump, comentó: “Facebook ha promocionado su trabajo para combatir la desinformación y el extremismo violento relacionado con las elecciones de 2020 y la insurrección (…) En realidad Facebook sabía que sus algoritmos y plataformas promovían este comportamiento dañino, y no realizó ninguna recomendación interna o implementó contramedidas”.

Economía del odio

Haugen marca 2018 como un año clave, dado que fue cuando la plataforma cambió sus algoritmos para las líneas de tiempo de las noticias de forma tal que le diera prioridad al contenido que producía más interacción. Esto hizo que el material más divisivo se convirtiera en el más prominente, porque es más fácil inspirar el enojo que otras emociones.

Frances señala que “Facebook sabe que si cambia el algoritmo para que sea más seguro, la gente pasará menos tiempo en el sitio, hará menos clics en los avisos y producirá menos dinero”.

¡Comparte esta noticia!
TAGS