Un consorcio de medios de comunicación comenzó a publicar este lunes 25 de octubre una serie de documentos internos de Facebook filtrados por la denunciante Frances Haugen.
Dichos informes fueron elaborados por Reuters, Bloomberg y The Washington Post, entre otros medios, y muestran la imagen de una compañía que ha intentado priorizar en varias ocasiones su dominio y beneficios sobre la seguridad de los usuarios.
Los documentos señalan que Mark Zuckerberg, CEO de la firma, estaba consciente de que la plataforma servía para amplificar los discursos de odio, pese a que afirmó lo contrario durante su testimonio ante el Congreso.
Según los medios, el ejecutivo sabía que el problema era mucho más grave de lo que se declaraba de manera pública.
Otro de los documentos publicados revela que la red social apenas elimina 5 por ciento del contenido relacionado a discursos de odio y que los ejecutivos sabían que la red social polarizaba a la gente.
Al mismo tiempo, las publicaciones muestran que Zuckerberg también estuvo detrás de la decisión de no tomar medidas más drásticas contra la desinformación del COVID-19 durante las primeras etapas de la pandemia.
Según Reuters, Facebook ha descuidado una serie de países en desarrollo, lo que ha permitido que surjan discursos violentos y el extremismo. Esto incluye la falta de contratación suficiente, apreciar el contexto cultural y moderar de manera efectiva.
“El resultado es que la empresa tiene una fe injustificada en sus sistemas de moderación automática, que son ineficaces en los países que no hablan inglés”, señala una publicación de Engadget sobre este mismo punto.
Los informes acusan que la compañía tampoco contaba con las herramientas necesarias para detectar el discurso de odio en las lenguas etíopes de Oromo o Amharic. Al respecto, Facebook declaró que trabajan para ampliar su equipo de moderación de contenidos.