Los recientes ataques terroristas alrededor del mundo han servido para poner una vez más en primer plano a servicios como YouTube, Facebook y Twitter, quienes han incrementado sus esfuerzos para eliminar el contenido extremista de sus respectivas plataformas.
En una pieza escrita para el Financial Times y publicada el domingo, Kent Walker, vicepresidente senior y miembro de la junta directiva de Google, insistió en que YouTube está trabajando arduamente para lidiar con el tema del extremismo violento en línea. Sin embargo, admitió que, «como industria en general, se necesita hacer más».
Con esas intenciones, Google está presentando cuatro nuevas medidas para que puedan funcionar junto con los esfuerzos existentes en YouTube.
En primer lugar, la empresa promete empezar a hacer más uso de la tecnología con el objetivo de identificar automáticamente el contenido extremista. Walker dijo que YouTube planea dedicar más recursos de ingeniería para aplicar su más avanzada investigación de aprendizaje de máquinas, para así entrenar nuevos ‘clasificadores de contenido’ y ayudarlos a identificar y eliminar más rápidamente el contenido extremista.
Al mismo tiempo, el servicio planea aumentar el número de evaluadores humanos como parte de su programa Trusted Flagger, agregando 50 nuevas ONG a las 63 organizaciones que ya forman parte del programa. Estos reportes se utilizan en los casos en que se necesite un juicio más determinado en relación a «definir la línea entre la propaganda violenta, y el discurso de interés religioso o periodístico». Walker señala que aunque los informes reportados por los usuarios regulares a veces pueden ser inexactos, es programa de expertos demostró estar en lo correcto un 90 por ciento.
La compañía dijo que también va a tomar un nuevo enfoque para los videos «que no violen claramente nuestras políticas», pero podrían ser considerados como estar cerca de la línea. Dicho contenido aparecerá detrás de una notificación de advertencia y se reproducirá sin anuncios. Los espectadores no podrán recomendar o comentar en el video, una función diseñada para limitar la interacción y hacer que ese tipo de videos sean más difíciles de encontrar. «Creemos que esto logra el equilibrio correcto entre la libre expresión y el acceso a la información, sin promover puntos de vista extremadamente ofensivos», escribió Walker.
Finalmente, YouTube pretende duplicar sus esfuerzos de contra-radicalización, a través de anuncios dirigidos a potenciales simpatizantes de Isis, que los lleven a videos antiterroristas diseñados para disuadirlos de ser reclutados.
Walker prometió continuar los esfuerzos para abordar el contenido peligroso, agregando que «extremistas y terroristas buscan atacar y erosionar no sólo nuestra seguridad, sino también nuestros valores, esas mismas cosas que hacen nuestras sociedades abiertas y libres. No debemos dejar que lo hagan».
La semana pasada, Facebook también destacó sus propios esfuerzos dirigidos a mantener contenido extremista fuera de su servicio, que incluyen el uso de tecnología de IA para identificar y eliminar rápidamente contenido no deseado. Facebook también está usando un equipo de empleados para respaldar sus esfuerzos relacionados con la inteligencia artificial para reprimir los mensajes relacionados con terrorismo que aparecen en su servicio.