El máximo ejecutivo de Meta, Nick Clegg, reconoció que hay un problema mayúsculo con Meta, y es que la moderación de contenido está fallando.
El presidente de asuntos globales de Meta, dijo a los periodistas el lunes que las «tasas de error de moderación de la compañía siguen siendo demasiado altas» y se comprometió a «mejorar la precisión y exactitud con la que actuamos según nuestras reglas».
«Sabemos que al hacer cumplir nuestras políticas, nuestras tasas de error siguen siendo demasiado altas, lo que se interpone en el camino de la libertad de expresión que nos propusimos permitir», dijo Clegg durante una llamada de prensa a la que asistí. «Con demasiada frecuencia, el contenido inofensivo se elimina o se restringe, y demasiadas personas son penalizadas injustamente».
Clegg además reconoció que uno de los periodos más difíciles de moderación de contenido, fue para la pandemia de COVID-19.
«Teníamos reglas muy estrictas para eliminar grandes volúmenes de contenido durante la pandemia», dijo Clegg. «Nadie durante la pandemia sabía cómo se iba a desarrollar la pandemia, así que esto es realmente sabiduría en retrospectiva. Pero en retrospectiva, sentimos que nos excedimos un poco. Somos muy conscientes porque los usuarios alzaron la voz, con razón, y se quejaron de que a veces aplicamos demasiado y cometemos errores y eliminamos o restringimos contenido inocuo o inocente».
Los comentarios de Clegg sugieren que, después de años de aumentar lo que ahora son miles de millones de dólares en gasto anual en moderación, los sistemas automatizados de Meta se han vuelto demasiado torpes.