Skip to main content
  1. Casa
  2. Redes sociales
  3. Noticias
  4. News

Así es como Facebook elimina casi 300,000 publicaciones de odio al mes

Uno de los grandes desafíos de plataformas sociales como Facebook y Twitter es determinar qué constituye libertad de expresión y qué discurso de odio. Con los ánimos políticos tan caldeados últimamente, esta tarea es aún más delicada. En un blog publicado el martes, Facebook compartió cómo define y aplica las directrices para mantener el discurso de odio fuera de su red social.

A nivel mundial, Facebook suprime alrededor de 288,000 publicaciones al mes, después de que los mensajes son reportados como discurso de odio. Como parte de la serie «Hard Questions» (algo como «Preguntas Difíciles»), Facebook está compartiendo la forma en la que maneja el discurso de odio y para hacerlo, tiene que definir lo que es exactamente el odio.

Recommended Videos

La empresa dice que hay una diferencia entre estar en desacuerdo en temas de política y religión, y el discurso de odio. «Nuestra definición actual de discurso de odio es cualquier cosa que ataque directamente a la gente basada en lo que se conoce como sus ‘características protegidas’: raza, origen étnico, origen nacional, afiliación religiosa, orientación sexual, sexo, género, identidad de género o discapacidad o enfermedad grave», escribió Richard Allan, vicepresidente de Facebook para Europa, Oriente Medio y África.

La plataforma de redes sociales dice que la reducción y eliminación del discurso de odio es a menudo difícil porque la línea entre eso y la libertad de expresión a menudo varía entre culturas y nacionalidades. Por ejemplo, algunas publicaciones que son discurso protegido en Estados Unidos podrían considerarse como justificación para un allanamiento policial en Alemania.

Cuando se marca una publicación, Facebook considera el contexto de la publicación, incluyendo cómo palabras idénticas pueden tener un significado diferente en varias regiones del mundo. La intención es también un factor que se considera. Por ejemplo, varios términos ofensivos que hacen que los mensajes sean reportados no dan lugar a la eliminación cuando el usuario se refiere a sí mismo.

Facebook dice que está trabajando en una solución de inteligencia artificial, pero todavía está lejos de ponerla en práctica. La información de la comunidad sigue siendo una de las principales maneras en que la plataforma identifica contenido cuestionable. La compañía agregará 3,000 personas a ese equipo antes de fin de año, y el debate de Facebook se produce tras el anuncio de una asociación con Microsoft, Twitter y YouTube para combatir el terrorismo en línea. El vistazo desde adentro al proceso de determinar el discurso del odio se produce después de que las pautas de la compañía para eliminar este tipo de contenido fueran filtradas el año pasado.

«Si no eliminamos el contenido que reportas porque piensas que es un discurso de odio, se siente como si no estuviéramos cumpliendo con los valores de nuestros Estándares Comunitarios. Cuando eliminamos algo que publicaste y crees que es una opinión política razonable, puede sentirse como censura», dijo Allan. «Sabemos las reacciones fuertes que tiene la gente cuando cometemos esos errores y estamos trabajando constantemente para mejorar nuestros procesos y explicar las cosas más plenamente».

La mirada en profundidad a la política es parte de la serie de preguntas difíciles de Facebook que pide a los usuarios compartir información y sugerencias para mejorar a través de hardquestions@fb.com.

Claudia Sandoval
Ex escritor de Digital Trends en Español
Claudia Is a writer and editor based in New York. During almost two decades, she has written not only about technology, but…
Meta implementa protección anti estafas en WhatsApp y Messenger
Mensaje estafa

Uno de los principales problemas que han tenido los servicios de mensajería en los últimos años son las estafas en plataformas como WhatsApp o Messenger, sobre todo con el envío de enlaces maliciosos.

Y ahora Meta está lanzando nuevas herramientas destinadas a tratar de proteger a los usuarios de Messenger y WhatsApp de posibles estafas. La compañía dice que sus equipos han "detectado e interrumpido" casi 8 millones de cuentas asociadas con centros de estafa en Myanmar, Laos, Camboya, los Emiratos Árabes Unidos y Filipinas desde principios de 2025. También ha tomado medidas en más de 21,000 páginas en Facebook que pretenden ser servicios de atención al cliente de empresas legítimas.

Leer más
La nueva herramienta de IA de YouTube espera detener los deepfakes
Youtube Deepfake detector

¿Qué ha pasado? En el ámbito en constante evolución de la creación de contenido, los deepfakes generados por IA representan una seria amenaza, tanto para los creadores como para los espectadores. Para ayudar a frenar el problema, YouTube ha lanzado una nueva herramienta llamada detección de semejanza.

Después de una prueba piloto a principios de este año, YouTube lanzó oficialmente la función de detección de semejanza para los creadores elegibles en el Programa de socios de YouTube.

Leer más
Se acaban los perfiles falsos para siempre en Tinder…o eso prometen
Un hombre utiliza una de las aplicaciones de citas.

¿Qué pasó: ¿Conoces todos los perfiles falsos y bots en Tinder? Bueno, están tratando de tomar medidas enérgicas contra eso.

Están implementando su función "Face Check" a más personas en los EE. UU.

Leer más