Skip to main content

Así es como Facebook decide qué países necesitan protección en su plataforma

Los documentos sobre Facebook filtrados en fechas recientes por la exempleada Frances Haugen revelaron una serie de conductas cuestionables de la compañía, las cuales tienen que ver con la seguridad de los usuarios y su lucha por ser relevante para una audiencia más joven a pesar de que sus servicios le hagan un daño a la sociedad.

Uno de los aspectos revelados que más ha llamado la atención es la variación en la moderación del contenido en la plataforma que se les entrega a cada país. Esta depende de los criterios de Facebook, no son públicos y tampoco están sujetos a una revisión externa.

En una conferencia llamada Civic Summit desarrollada a fines de 2019, el grupo de empleados de Facebook a cargo de prevenir daños en la plataforma definieron dónde invertirían recursos para brindar mayor protección en torno a las próximas elecciones globales, y para ello la compañía clasificó a los países en distintos niveles según su prioridad.

Facebook
Imagen utilizada con permiso del titular de los derechos de autor

Brasil, India y Estados Unidos fueron colocados en el “nivel cero”, el cual corresponde a la máxima prioridad. Para ese nivel Facebook estableció unas “salas de guerra” (o “centros de operaciones mejorados”, como también le llama la compañía), que servían para monitorear la plataforma de manera continua, paneles para analizar la actividad en la plataforma y alertas para los funcionarios electorales locales sobre los problemas encontrados.

Alemania, Indonesia, Irán, Israel e Italia fueron asignados al nivel uno; estos países tendrían recursos similares al “nivel cero”. Sin embargo, para el cumplimiento de las reglas de Facebook y para las alertas fuera del periodo directamente alrededor de las elecciones recibirían menos recursos.

En el nivel dos se agregaron 22 países; en este caso Facebook no utilizaría las “salas de guerra”.

Finalmente, en el nivel tres colocaron al resto de los países. Facebook revisaría el material relacionado con las elecciones solo si los moderadores de contenido se reenviaban, de lo contrario no intervendría.

El sistema fue descrito en las relevaciones hechas a la Comisión de Bolsa y Valores y fueron entregadas al Congreso de forma redactada por el asesor legal de Frances Haugen. Esta versión también fue obtenida por medios como The Verge.

Frances Haugen
Imagen utilizada con permiso del titular de los derechos de autor

Facebook ha sido foco de críticas con relación a la moderación del contenido desde hace años, tanto por parte de activistas y legisladores como usuarios de todo el mundo. Pero ahora, con los documentos entregados, se ha podido ver con detalle dónde la red social ofrece atención con estándares más altos.

Como vemos, en el país de origen de Facebook, Estados Unidos, y otros países considerados de alto riesgo en términos de violencia política o inestabilidad social, la compañía de Mark Zuckerberg ofrece servicios mejorados que han sido diseñados para proteger el discurso público.

Estos servicios incluyen traducir la plataforma y sus estándares comunitarios a los idiomas oficiales, desarrollar clasificadores con inteligencia artificial (IA) para detectar discursos de odio y desinformación en esos idiomas, y reunir equipos de empleados para analizar el contenido viral y responder rápidamente a las falsas alarmas y la incitación a la violencia las 24 horas del día.

Por otro lado, tenemos países como Etiopía, donde probablemente ni siquiera se traduzcan los estándares comunitarios de la compañía a sus idiomas oficiales, tampoco se tengan disponibles los clasificadores con IA que detectan discursos de odio, un grupo de gente que se encargue de la verificación de hechos o las “salas de guerra”.

Si Facebook fuera una compañía pequeña, esta asignación de recursos no sería tan controvertida, pero como se trata de una empresa tan grande y clave en el discurso cívico estas disparidades son preocupantes.

Algunas disparidades incluyen que Facebook no ha ofrecido clasificadores de información falsa en países como Myanmar, Pakistán y Etiopía (los cuales fueron designados como de mayor riesgo en 2020), ni tampoco clasificadores de discursos de odio en este último país, que se encuentra en medio de un sangriento conflicto civil desde hace un año.

Por otro lado, hasta diciembre del año pasado el esfuerzo por colocar a expertos en idiomas solo tuvo éxito en seis de los diez países del nivel uno y en ninguno de los países de nivel dos.

Facebook: la publicación más vista fue una noticia falsa sobre COVID-19
Getty Images.

De acuerdo con Miranda Sissons, directora de las políticas de derechos humanos en Facebook, esa asignación de recursos refleja las mejores prácticas sugeridas por las Naciones Unidas en sus Principios Rectores sobre Empresas y Derechos Humanos.

Esos principios requieren que las empresas consideren el impacto de su trabajo en los derechos humanos y trabajen para mitigar cualquier problema en función de su gravedad mediante soluciones efectivas para ellos.

Sissons, quien ha tenido una larga carrera como activista de derechos humanos y diplomática, se unió a Facebook en 2019, justo en el año en que la compañía comenzó a desarrollar su estrategia sobre los “países en riesgo”.

Los “ARC” (at-risk countries), como lo abrevia Facebook, son regiones donde la cohesión social disminuye y los servicios de Facebook pueden amplificar el incentivo a la violencia, considerando la magnitud y popularidad de la plataforma a nivel mundial.

Por otro lado, Sissons dice que los estándares de la comunidad de la empresa y las herramientas de moderación de contenido con IA se traducirán a los idiomas de todos los países donde opera la red social, idealmente. Mientras que las Naciones Unidas tiene soporte para seis idiomas oficiales, Facebook tiene hablantes nativos que moderan publicaciones en más de 70.

Sissons también afirma que incluso en los países con recursos limitados por los niveles de Facebook el sistema de la plataforma escanea indicios de inestabilidad política u otros riesgos de violencia para que la empresa pueda adaptarse.

Imagen utilizada con permiso del titular de los derechos de autor

Sin embargo, algunos proyectos, como la formación de nuevos clasificadores de incitación al odio, son costosos y toma muchos meses desarrollarlos. Por esa razón, los empleados a cargo de la moderación se han visto limitados en los países de alto riesgo.

Una nota de la compañía titulada “manejar el discurso hostil en países en riesgo de manera sostenible” decía que el apoyo a estos “tiene un alto costo para el equipo en términos de respuesta a la crisis”.

“En los últimos meses, se nos ha pedido que combatamos por las elecciones en India, enfrentamientos violentos en Bangladesh y protestas en Pakistán”, agregó la compañía.

Esta también mencionaba que después de que un país es designado como “prioridad”, por lo general se necesita un año para construir clasificadores de incitación al odio y mejorar la aplicación. Pero no todo llega a ser prioridad.

“Deberíamos priorizar la construcción de clasificadores para países con violencia continua en lugar de violencia temporal. Para el último caso, deberíamos ampararnos en las herramientas de respuesta rápida”.

El sistema de moderación de Facebook y su clasificación de países puede ser confuso y maniobrado, incluso para los trabajadores. Pero como dice The Verge, un gran contingente de trabajadores dentro de la empresa trata de controlar los peores abusos de la plataforma por medio de las herramientas a su alcance, mientras se enfrentan a presiones externas sobre las que no tienen control.

Recomendaciones del editor

Karina Tapia
Redes sociales (Facebook, Instagram, TikTok), videojuegos y las últimas tendencias del internet y la industria tecnológica…
Billie Eilish, Olivia Rodrigo y más regresan a TikTok
universal regresa a tiktok bbillie eilish

Después de una discordancia a principios de año, Universal Music ha decidido firmar un nuevo acuerdo con TikTok para retornar con su catálogo a la plataforma de redes sociales.

Esto hará que su lista de artistas, que incluye a Taylor Swift, Billie Eilish, Drake y Olivia Rodrigo, regrese a los más de mil millones de usuarios de la plataforma de redes sociales. UMG comenzó a retirar su música de TikTok el 1 de febrero después de que expirara el contrato anterior.
En particular, el acuerdo abordará las preocupaciones que UMG y sus artistas tienen con la IA generativa. "TikTok y UMG trabajarán juntos para garantizar que el desarrollo de la IA en toda la industria de la música proteja el arte humano y la economía que fluye hacia esos artistas y compositores", se lee en un comunicado de prensa que anuncia el acuerdo. "TikTok también se compromete a trabajar con UMG para eliminar de la plataforma la música no autorizada generada por IA, así como las herramientas para mejorar la atribución de artistas y compositores".
"Estamos encantados de dar la bienvenida a UMG y UMPG de nuevo a TikTok", dijo Ole Obermann, director global de desarrollo de negocios musicales de TikTok. "En particular, trabajaremos juntos para asegurarnos de que las herramientas de IA se desarrollen de manera responsable para permitir una nueva era de creatividad musical y participación de los fanáticos, al tiempo que protegemos la creatividad humana".
El acuerdo también incluye "nuevas oportunidades de monetización" que se derivan de las crecientes capacidades de comercio electrónico de TikTok. TikTok también se compromete a seguir creando herramientas para ayudar a los artistas a aprovechar mejor la plataforma en áreas como el análisis y la venta integrada de entradas.
Las compañías dicen que están "trabajando rápidamente" para devolver a los artistas a la plataforma.

Leer más
Cómo hacer una encuesta en WhatsApp
Celular con WhatsApp

Seguramente las has visto en algún chat. Probablemente hasta has participado en ellas. Hablamos de las encuestas, una herramienta que se integró recientemente a WhatsApp y que puede ser una forma bastante útil de conocer la opinión de los integrantes de un chat grupal. Por eso, en esta guía te diremos cómo hacer una encuesta en WhatsApp.
Cómo hacer una encuesta en WhatsApp en iPhone
Para realizar una encuesta de WhatsApp ve a cualquier chat, no importa si es uno grupal o individual y toca sobre el símbolo de más que está a la izquierda del recuadro de texto. Se abrirá un menú con distintas opciones, selecciona Encuesta.

Ahora verás una ventana emergente con varios campos. En Pregunta escribe la cuestión que deseas someter a encuesta. Después añade las respuestas. Por defecto tendrás habilitadas únicamente dos campos, pero una vez que los llenes podrás añadir más opciones hasta un total de 12 respuestas. Recuerda que puedes hacerlas divertidas añadiéndoles emojis.

Leer más
¿Qué es Airchat, la nueva red social basada en notas de voz?
Airchat.

En un panorama donde la comunicación en las redes sociales se basa principalmente en texto, Airchat emerge como una innovadora plataforma que busca revolucionar la forma en que las personas se conectan en línea. Con su enfoque centrado en la voz, de manera similar a lo que hizo Clubhouse hace un par de años, esta iniciativa busca desafiar las convenciones establecidas. ¿Te llama la atención? Aquí te contamos todo lo que necesitas saber sobre Airchat.
¿Qué es Airchat?

Concebida por el cofundador y ex CEO de AngelList Naval Ravikant, y el ex CPO de Tinder Brian Norgard, Airchat es una nueva red social donde la voz se convierte en el principal medio de expresión.

Leer más