Uno de los grandes desafíos de plataformas sociales como Facebook y Twitter es determinar qué constituye libertad de expresión y qué discurso de odio. Con los ánimos políticos tan caldeados últimamente, esta tarea es aún más delicada. En un blog publicado el martes, Facebook compartió cómo define y aplica las directrices para mantener el discurso de odio fuera de su red social.
A nivel mundial, Facebook suprime alrededor de 288,000 publicaciones al mes, después de que los mensajes son reportados como discurso de odio. Como parte de la serie «Hard Questions» (algo como «Preguntas Difíciles»), Facebook está compartiendo la forma en la que maneja el discurso de odio y para hacerlo, tiene que definir lo que es exactamente el odio.
La empresa dice que hay una diferencia entre estar en desacuerdo en temas de política y religión, y el discurso de odio. «Nuestra definición actual de discurso de odio es cualquier cosa que ataque directamente a la gente basada en lo que se conoce como sus ‘características protegidas’: raza, origen étnico, origen nacional, afiliación religiosa, orientación sexual, sexo, género, identidad de género o discapacidad o enfermedad grave», escribió Richard Allan, vicepresidente de Facebook para Europa, Oriente Medio y África.
La plataforma de redes sociales dice que la reducción y eliminación del discurso de odio es a menudo difícil porque la línea entre eso y la libertad de expresión a menudo varía entre culturas y nacionalidades. Por ejemplo, algunas publicaciones que son discurso protegido en Estados Unidos podrían considerarse como justificación para un allanamiento policial en Alemania.
Cuando se marca una publicación, Facebook considera el contexto de la publicación, incluyendo cómo palabras idénticas pueden tener un significado diferente en varias regiones del mundo. La intención es también un factor que se considera. Por ejemplo, varios términos ofensivos que hacen que los mensajes sean reportados no dan lugar a la eliminación cuando el usuario se refiere a sí mismo.
Facebook dice que está trabajando en una solución de inteligencia artificial, pero todavía está lejos de ponerla en práctica. La información de la comunidad sigue siendo una de las principales maneras en que la plataforma identifica contenido cuestionable. La compañía agregará 3,000 personas a ese equipo antes de fin de año, y el debate de Facebook se produce tras el anuncio de una asociación con Microsoft, Twitter y YouTube para combatir el terrorismo en línea. El vistazo desde adentro al proceso de determinar el discurso del odio se produce después de que las pautas de la compañía para eliminar este tipo de contenido fueran filtradas el año pasado.
«Si no eliminamos el contenido que reportas porque piensas que es un discurso de odio, se siente como si no estuviéramos cumpliendo con los valores de nuestros Estándares Comunitarios. Cuando eliminamos algo que publicaste y crees que es una opinión política razonable, puede sentirse como censura», dijo Allan. «Sabemos las reacciones fuertes que tiene la gente cuando cometemos esos errores y estamos trabajando constantemente para mejorar nuestros procesos y explicar las cosas más plenamente».
La mirada en profundidad a la política es parte de la serie de preguntas difíciles de Facebook que pide a los usuarios compartir información y sugerencias para mejorar a través de hardquestions@fb.com.