“Moderación en el contenido” es una expresión común en el lenguaje académico o en una tarea editorial, pero la realidad sobre esta expresión está tomando matices más oscuros.
De acuerdo a Wired, hay más de 100,000 personas que tienen como trabajo en las Filipinas y en los Estados Unidos, el de leer el contenido en línea buscando comentarios ofensivos, amenazadores, obscenos o abusivos.
Relacionado: Google anuncia nueva plataforma de mensajería con toques de inteligencia artificial
El nivel de estrés que manejan estos moderadores es inmenso y puede dejar problemas emocionales.
Es una realidad sobre la necesidad de tener contenido en la web, con el cual los usuarios interactúen.
Twitter, Google, Netflix, YouTube y otras compañías no publican los problemas de moderación de contenidos con los que se encuentran a diario, pero eso no quiere decir que no estén haciendo esfuerzos para controla el problema.
No se trata simplemente de controlar la información que aparece en sus plataformas, sino también de construir sistemas de inteligencia artificial capaces de reconocerlos y que sea capaz de hacer este trabajo.
Los ingenieros de Facebook declararon hace poco que los sistemas de inteligencia artificial están ahora encontrando más contenido ofensivo que el que encontraban los seres humanos, ,de acuerdo a un reporte de TechCrunch.
Joaquín Candela, el Director de Ingeniería de Facebook para aprendizaje de las máquinas, habló sobre el incremento del uso de este tipo de sistemas en varios aspectos del negocio que es Facebook, incluyendo el área de moderación de contenido.
“Algo que sucede hoy es que estamos encontrando más fotos ofensivas con algoritmos de inteligencia artificial que con personas (…) entre más la utilicemos, menos posibilidades habrá de que los usuarios las vean”, afirma Candela.
Claramente, estos sistemas no son perfectos y algunos errores han sucedido. Un reporte de Wired indica que en el 2015, Twitter afirmó que su sistema de inteligencia artificial está diseñado para reconocer la pornografía el 99% de las veces.
Relacionado: Inteligencia Artificial predice y gana en el Derby de Kentucky
Sin embargo, la red social admite que el 7% de esos contenidos bloqueados eran inocentes y habían sido bloqueadas de forma incorrecta.
Muchas veces las imágenes dadas de baja, son fotos de bebés medio desnudos o madres lactando.
Esto quiere decir que los sistemas de inteligencia artificial tienen aún mucho por aprender y a partir de ahí, cambiar el tipo de análisis que hacen con la información que reciben.
Varias redes sociales están trabajando en conjunto para compartir y aprender sobre estos sistemas y un ingeniero de Facebook añade que no ven la inteligencia artificial como un arma secreta para competir con las otras empresas”.