Skip to main content

Moderadora de contenido de Facebook dice que su trabajo «es una pesadilla»

Una moderadora de contenidos de Facebook reveló que el trabajo que hacen ella y sus colegas dentro de la plataforma no es otra cosa sino “una pesadilla”.

Isabella Plunkett, quien trabaja para Facebook pero que está subcontratada por una empresa externa, explicó a la BBC que los moderadores de la red social pagan un costo muy alto a causa de lo que les toca ver.

Según la moderadora, el trabajo consiste en procesar alrededor de 100 solicitudes diarias de moderación. Y mientras mayor prioridad tiene una solicitud, más delicado es el contenido: violencia gráfica, infantil e incluso suicidios.

como desbloquear a alguien en Facebook
Thought Catalog on Unsplash

Una de las problemáticas asociadas con esto es que a los moderadores externos y subcontratados no se les permite trabajar desde casa, como sí ocurre con quienes están contratados por la propia Facebook. “Cada día es una pesadilla. El apoyo sicológico que se nos da es insuficiente. Y no podemos decir que nos vamos a casa a descansar, porque eso no ocurre”.

Por otra parte, quienes trabajan como moderadores deben firmar un contrato en el que aceptan el hecho de que pueden desarrollar estrés postraumático.

Según la red social, a todos los moderadores se les ofrece ayuda sicológica para lidiar con las imágenes y el contenido al que están expuestos, pero Plunkett dice que aquello no es lo adecuado. Primero, porque los trabajadores subcontratados “somos tratados como ciudadanos de segunda clase, a diferencia del personal de Facebook”, y segundo, porque el personal psicológico no está bien preparado.

“Las personas en los equipos de ayuda tienen buenas intenciones, pero no son doctores —explicó la moderadora en una audiencia del Gobierno irlandés—. Nos sugieren que hagamos karaoke o que pintemos, pero muchas veces no tenemos ganas de cantar luego de haber visto como a alguien lo cortan en pedazos”.

Botón Me gusta Facebook
Pixabay

Estas revelaciones se dieron en el marco de una investigación del Gobierno de Irlanda, que busca que Facebook se haga responsable por las consecuencias en la salud mental que implica trabajar como moderador de contenido.

Y no es primera vez que Facebook se ve enfrentada a una situación similar. En 2020, un grupo de moderadores de contenido acusó a Mark Zuckerberg de poner en riesgo sus vidas al obligarlos a volver a trabajar de manera presencial.

Recomendaciones del editor

Raúl Estrada
Ex escritor de Digital Trends en Español
Raúl Estrada comenzó en el mundo de los medios de comunicación en 2009, mientras estudiaba ingeniería y escribía en…
Las 5 cosas que debes hacer antes de borrar Facebook
Las 5 cosas que debes hacer antes de borrar Facebook.

Es una verdad casi incuestionable a estas alturas: aquella plataforma que nació para socializar y comentar las fotos de los amigos se ha convertido en fuente de ansiedad y toda clase de malestares, y eso sin contar lo mal que ha gestionado las informaciones falsas que han pululado por ella como peces por el agua. Cada vez más gente llegue a la resolución de abandonar de manera definitiva la red social de Mark Zuckerberg. Sin embargo, antes cortar los lazos y empezar a disfrutar de esa renovada paz mental, te conviene tomar una serie de medidas. Conoce cuáles son las cinco cosas que debes hacer antes de borrar Facebook.

Te interesará leer también las razones por las que Facebook debe morir y cómo borrar una cuenta de Facebook.
Descarga tus datos

Leer más
El próximo paso de ChatGPT: moderar contenido ilegal y polémico en Facebook
chatgpt moderar contenido ilegal polemico facebook emiliano vittoriosi kdnhf7vjsik unsplash

GPT-4, el modelo de lenguaje grande (LLM) que impulsa ChatGPT Plus, pronto puede asumir un nuevo papel como moderador en línea, vigilando foros y redes sociales en busca de contenido nefasto que no debería ver la luz del día. Eso es según una nueva publicación de blog del desarrollador de ChatGPT OpenAI, que dice que esto podría ofrecer "una visión más positiva del futuro de las plataformas digitales".

Al reclutar inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI dice que GPT-4 puede promulgar "iteraciones mucho más rápidas en los cambios de política, reduciendo el ciclo de meses a horas". Además de eso, "GPT-4 también es capaz de interpretar reglas y matices en la documentación de políticas de contenido largo y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente", afirma OpenAI.
Rolf van Root / Unsplash
Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si cae dentro o fuera de las reglas de una plataforma determinada. GPT-4 podría entonces tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin saber las respuestas de antemano.

Leer más
Mark Zuckerberg: espero que Threads aproveche la agitación de Twitter o X o cómo sea que se llame eso
Mark Zuckerberg, fundador y CEO de Meta, anteriormente conocido como Facebook.

El CEO de Meta, Mark Zuckerberg, tuvo una llamada con los inversores este miércoles 26 de julio para explicar las ganancias de la compañía y aprovechó de hablar de la aparición de Threads y la agitación del momento en Twitter o X como se llama ahora.

El fundador de Facebook sugirió que los errores del propietario de X / Twitter contribuyeron al dramático crecimiento en las inscripciones a Threads.
"Podría ser que esto sea tan idiosincrásico debido a todos los factores que estaban sucediendo alrededor de Twitter, o X, como supongo que se llama ahora", dijo a los inversores en la llamada de ganancias de la compañía. "Así que es difícil de decir. Cuando algo funciona o no, a menudo puedes señalar la razón por la que lo hizo o no, y creo que hay una pregunta intelectual interesante de si podrías haberlo sabido".

Leer más