Skip to main content
  1. Casa
  2. Redes sociales
  3. Noticias
  4. News

Facebook contratará 3,000 monitores de contenido

En respuesta a una alarmante alza de transmisiones de videos violentos, el presidente ejecutivo de Facebook, Mark Zuckerbeg, anunció en un mensaje en la red social que su empresa contratará a 3,000 personas adicionales para monitorear el contenido violento y actuar lo más rápido posible para removerlo o buscar ayuda.

La decisión se conoce luego de que videos en vivo y grabados cargados a la red mostraron a personas causando daño a otras o a sí mismas. La red social ha sido duramente criticada por el tiempo que se demoró en remover el contenido cuestionable de su plataforma después de haber sido reportado.

Recommended Videos

En el caso de un hombre en Cleveland que le disparó fatalmente a otro en cámara, el video estuvo en la red por casi dos horas. En el caso de una hombre tailandés que transmitió en vivo el asesinato de su hija de 11 meses, el video estuvo disponible por 24 horas en la red.

El anuncio de Zuckerberg no menciona nada sobre límites a las herramientas de transmisiones en vivo de Facebook, una función conocida como Live, con lo que la solución propuesta solo se enfocará en reducir el tiempo que le lleva a la red social identificar y remover el material violento o sensible.

“En las últimas semanas, hemos visto a personas que se lastiman a sí mismas y a otras en Facebook, ya sea en directo o en un video publicado más tarde. Es desgarrador, y he estado reflexionando sobre cómo podemos hacerlo mejor para nuestra comunidad”, escribió Zuckerberg en su mensaje.

La red social ya tiene a 4.500 personas trabajando en lo que denomina “operaciones comunitarias” a las cuales se sumarán los nuevos contratados en el transcurso de un año.

Con un promedio 1.200 millones de usuarios activos al día, la tarea de revisar millones de videos, fotos y mensajes es titánica. Además de los monitores humanos, la empresa se ha apoyado en algoritmos para identificar contenido cuestionable y ha empezado a desarrollar herramientas de inteligencia artificial que la ayuden a determinar con rapidez si un material no se ajusta a sus políticas, incluyendo el discurso de odio y la explotación infantil.

“Seguiremos trabajando con los grupos comunitarios locales y las fuerzas policiales que están en mejor posición de ayudar a alguien si lo necesitan, ya sea porque están a punto de hacerse daño o porque están en riesgo de que otros les hagan daño”, dijo.

Además del personal adicional, Zuckerberg aseguró que la red simplificará los procesos para reportar problemas y el que siguen los monitores de la empresa para determinar qué publicaciones violan los estándares de Facebook. También facilitará que su personal contacte a las autoridades si detectan riesgo.

El ejecutivo citó un caso registrado la semana pasada en la que un individuo manifestó en el servicio Live de la red que contemplaba quitarse la vida. “Inmediatamente llamamos a la policía, y pudimos evitar que se lastimara. En otros casos, no fuimos tan afortunados”, agregó Zuckerberg.

Claudia Sandoval
Ex escritor de Digital Trends en Español
Claudia Is a writer and editor based in New York. During almost two decades, she has written not only about technology, but…
Ahora podrás bloquear tu contenido robado en Instagram y Facebook
Meta content Protection

¿Qué ha pasado? Meta ha lanzado una nueva herramienta de Protección de Contenidos en Facebook para ayudar a los creadores a evitar que la gente republique sus vídeos sin permiso. Escanea automáticamente Facebook en busca de copias de tus reels o vídeos y te avisa cuando se encuentra una coincidencia.

Cuando alguien sube un vídeo que se parezca al tuyo, Facebook lo marca y te muestra detalles como el porcentaje de coincidencias, el número de visualizaciones y la audiencia de la otra cuenta.

Leer más
Grave vulneración de WhatsApp: más de 3 mil millones de números filtrados
se cayo whatsapp hoy mejores sitios para monitorear su estado cay

Una grave vulneración, pero con un exploit caratulado de simple, afectó a WhatsApp, en un incidente que además había sido avisado años antes a Meta por parte de investigadores (más específicamente la advertencia saltó en 2017).

Este exploit "simple" puede extraer un total de 3.500 millones de números de teléfono del servicio de mensajería. Los investigadores afirman que si el mismo exploit hubiera sido utilizado por actores malintencionados, el resultado habría sido "la mayor filtración de datos de la historia."

Leer más
Meta gana: se puede quedar con WhatsApp e Instagram
Meta Logo

Un triunfo histórico y aliviador consiguió Meta en los tribunales de San Francisco, ya que la denuncia en su contra podría haber obligado al gigante tecnológico a separar Instagram y WhatsApp después de que un juez dictaminara que la empresa no tiene el monopolio de las redes sociales.

Meta, según la demanda de la FTC, ha mantenido un monopolio siguiendo la estrategia del CEO Mark Zuckerberg, "expresada en 2008: 'Es mejor comprar que competir.' Fiel a esa máxima, Facebook ha seguido sistemáticamente a posibles rivales y ha adquirido empresas que consideraba amenazas competitivas serias."

Leer más