Una situación potencialmente muy peligrosa acaba de anunciar Meta, la empresa matriz de compañías de redes sociales como Instagram, Facebook, WhatsApp o Threads, ya que ha anunciado hoy una importante revisión de sus políticas de moderación de contenidos, eliminando algunas de las barreras que había puesto en marcha durante varios años, en respuesta a las críticas de que había ayudado a difundir información errónea sobre política y salud.
En una entrada de blog titulada «Más discurso, menos errores», el nuevo director de asuntos globales de Meta, Joel Kaplan, esbozó los cambios en tres áreas clave para «deshacer el avance de la misión», según sus propias palabras:
- Meta pondrá fin a su programa de verificación de datos de terceros y pasará a un modelo de Notas de la Comunidad en los próximos meses. Notas de la comunidad es lo que usan los sitios como X.com;
- Está levantando las restricciones en torno a «temas que forman parte del discurso dominante», centrándose en cambio en la aplicación de la ley en «violaciones ilegales y de alta gravedad» en áreas como el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas; y
- Se alentará a los usuarios a adoptar un enfoque «personalizado» del contenido político, dando paso a una opinión y un sesgo considerablemente más amplios en los feeds de las personas que se ajusten a lo que quieran ver.
Una historia de fact cheking y moderación
Las disposiciones de moderación de contenido de Meta se implementaron y perfeccionaron durante varios años luego de las críticas políticas y públicas sobre cómo ayudó a difundir información errónea sobre las elecciones, malos consejos sobre Covid-19 y otras controversias. La verificación de hechos, por ejemplo, se desarrolló por primera vez en 2016, cuando Meta trabajó con organizaciones de terceros tras las acusaciones de que Facebook estaba siendo utilizado como arma para difundir noticias falsas durante las elecciones presidenciales de Estados Unidos.
Con el tiempo, esto también llevó a la formación de un Comité de Supervisión, para más moderación.
«Los expertos, como todo el mundo, tienen sus propios sesgos y perspectivas. Esto se reflejó en las decisiones que algunos tomaron sobre qué verificar y cómo», anotó Kaplan. Agregó que Meta «aplicó en exceso» sus reglas llevó a «limitar el debate político legítimo y censurar demasiado contenido trivial». Meta ahora estima que una o dos partes de cada 10 artículos censurados eran «errores» que no violaban las políticas.
«Las plataformas de Meta están diseñadas para ser lugares donde las personas puedan expresarse libremente. Eso puede ser complicado. En las plataformas donde miles de millones de personas pueden tener voz, todo lo bueno, lo malo y lo feo está a la vista. Pero eso es libertad de expresión», agregó Kaplan.
Por su parte, la Junta de Supervisión dijo que «acoge con satisfacción la noticia de que Meta revisará su enfoque de la verificación de hechos, con el objetivo de encontrar una solución escalable para mejorar la confianza, la libertad de expresión y la voz de los usuarios en sus plataformas». La Junta agregó que trabajaría con Meta para dar forma a su enfoque de la «libertad de expresión en 2025».