A mediados de 2019, Twitter entregó un listado con palabras y conceptos que serían penalizados para evitar discursos de odio.
Este 5 de marzo de 2020, esas reglas se actualizaron e incluyeron nuevas formas de castigo contra quienes se burlen o usen indiscriminadamente la edad de la gente, enfermedades, la discapacidad o la religión.
De esta forma, Twitter informó que se eliminarán todos los tuits que contengan este tipo de insultos o que hagan mofa con ellos.
«Los tuits que rompan esta regla sobre la edad, enfermedad o discapacidad enviados antes de este 5 de marzo de 2020 deberán eliminarse, pero no darán lugar directamente a ninguna suspensión de la cuenta porque se publicaron antes de que la disposición estuviera vigente», dice la red social del pajarito.
Estas nuevas reglas se dieron luego de hacer encuestas a más de 80,000 personas desde 2018, que arrojaron las siguientes conclusiones:
- Lenguaje más claro: en todos los idiomas, las personas creían que el cambio propuesto podría mejorarse al proporcionar más detalles, ejemplos de violaciones a las reglas y explicaciones sobre cuándo y cómo se considera el contexto.
- Los encuestados dijeron que los «grupos identificables como de odio» eran demasiado amplios y se les debería permitir interactuar con grupos políticos y otros grupos no marginados con este tipo de lenguaje.
- Aplicación coherente: muchas personas expresaron inquietudes sobre la capacidad de Twitter para hacer cumplir nuestras reglas de manera justa y consistente, por lo que desarrollamos un proceso de capacitación más largo y profundo con nuestros equipos para asegurarnos de que estén mejor informados al revisar los informes.
There’s more to come. We’re continuing to research and partner with a global working group of outside experts to address additional protected categories.
For more on how we work with outside experts:https://t.co/FTTW6k0DBJ
— Twitter Safety (@TwitterSafety) March 5, 2020
Con esta actualización en su guía de discurso de odio, la red social además quiere contribuir a contestar las siguientes preguntas:
- ¿Cómo protegemos las conversaciones que las personas tienen dentro de los grupos marginados, incluidos aquellos que usan terminología adecuada?
- ¿Cómo nos aseguramos de que nuestra gama de acciones de aplicación tenga en cuenta el contexto en su totalidad, refleje la gravedad de las violaciones a las reglas y sean necesarias y proporcionadas?
- ¿Cómo podemos o debemos, tener en cuenta las consideraciones sobre si un grupo protegido dado ha sido históricamente marginado o está siendo objeto de nuestra evaluación de la gravedad del daño?
- ¿Cómo explicamos las “dinámicas de poder» que pueden entrar en juego en diferentes grupos?
Recomendaciones del editor
- El juego de Android que escandalizó a Brasil: por simular la esclavitud
- Twitter ahora permite video de dos horas en su plataforma
- Linda Yaccarino: quién es la nueva CEO de Twitter elegida por Elon Musk
- Elon Musk anuncia liberación de nombres de usuario inactivos en Twitter
- Twitter permitirá a los editores cobrar por artículo clickeado