Facebook, YouTube y Twitter son rápidos al compartir estadísticas sobre cómo están mejorando los filtros de inteligencia artificial, pero las consecuencias del ataque de la semana pasada en Christchurch, Nueva Zelanda hicieron que las brechas en el sistema fueran terriblemente obvias. Los videos grabados desde el punto de vista del tirador se cargaron en las redes sociales en números al menos en el rango de cien mil después de que se publicara una copia del original en una plataforma para compartir archivos llamada 8chan.
El ataque a dos mezquitas en Christchurch dejó 50 muertos y otros 50 heridos, según las autoridades. El terrorista de 28 años de edad llevaba una cámara montada en un casco y transmitió en vivo los disparos de una manera que algunos dicen que estaba «diseñado para su máxima difusión en las redes sociales». El director de productos de YouTube, Neal Mohan, dice que el tiroteo se subió más que de costumbre.
Tres días después las redes sociales seguían luchando para deshabilitar las copias del video de 17 minutos. YouTube se equivocó temporalmente por precaución y deshabilitó la parte de revisión humana del proceso destinado a identificar videos falsamente mal etiquetados por la inteligencia artificial de la plataforma. El sistema como una violación de los términos. El cambio aún está en curso, y se alienta a los usuarios de YouTube que creen que sus videos se clasificaron de forma incorrecta a solicitar el reintegro de sus videos. Algunas funciones de búsqueda también permanecen desactivadas.
Si bien YouTube no compartió los números exactos, Facebook dice que eliminó 1.5 millones. Aproximadamente el 80 por ciento de esos, es decir 1.2 millones, fueron bloqueados durante el proceso de carga antes de llegar a la plataforma, mientras que otros 300,000 fueron retirados dentro de las primeras 24 horas después de la publicación. El video en vivo obtuvo menos de 200 visitas, dijo la compañía, y el video subido por el atacando tuvo alrededor de 400 vistas antes de ser eliminado. Ningún usuario reportó el video sino 29 minutos después de que el atacante empezara a transmitir en vivo. La plataforma eliminó la cuenta del presunto atacante en Facebook e Instagram y vetó al usuario de sus plataformas.
Algunos de los esfuerzos de las redes sociales para mantener la violencia y el odio funcionaron, como los 1.3 millones de videos que nunca fueron subidos a Facebook. Los errores anteriores de YouTube que permitieron que los videos violentos aparecieran en las sugerencias de búsqueda no parecían ser tenidos en cuenta, y los usuarios que buscaban el incidente fueron redirigidos a la cobertura de noticias del acontecimiento.
Pero como lo demuestra lo sucedido, la inteligencia artificial no es infalible. Muchas redes usan lo que se denomina “hash” para evitar las cargas masivas al reconocer cuándo se carga el mismo video más de una vez. Pero según The Washington Post, algunos usuarios han podido evitar el hash acortando el video, agregando logotipos o incluso utilizando un efecto que hizo que el evento de la vida real pareciera un videojuego. Mientras el video original fue eliminado, las redes tuvieron problemas con los «remixes» de la transmisión en vivo.
Facebook amplió su tecnología de “hashing” para intentar captar más variaciones en el video, agregando “hashing” de audio al proceso. Las redes que forman parte del Foro Global de Internet para Contrarrestar el Terrorismo, que incluye Facebook, YouTube, Twitter y Microsoft, agregaron variaciones del video a una base de datos, permitiendo que otras redes eviten las mismas cargas. Facebook dice que el grupo sumó alrededor de 800 variaciones del video a la base de datos.
“Esta fue una tragedia que casi fue diseñada con el propósito de volverse viral. Hemos progresado, pero eso no significa que no tengamos mucho trabajo por delante, y este incidente ha demostrado que, especialmente en el caso de más videos virales como este, hay más trabajo por hacer. «, Dijo Mohan a The Washington Post.
Facebook no comentó por qué el 20 por ciento de los videos que se publicaron en la red no se detectaron al subirlos. «Continuamos trabajando las veinticuatro horas del día para eliminar el contenido infractor mediante una combinación de tecnología y personas», declaró la representante de Facebook Nueva Zelanda Mia Garlick en un tweet. «Por respeto a las personas afectadas por esta tragedia y las preocupaciones de las autoridades locales, también estamos eliminando todas las versiones editadas del video que no muestran contenido gráfico».
Reddit y Twitter también eliminaron el contenido relacionado de sus plataformas, pero no compartieron estadísticas relacionadas. «Estamos continuamente monitoreando y eliminando cualquier contenido que describa la tragedia, y continuaremos haciéndolo de acuerdo con las reglas de Twitter», escribió Twitter Safety. «También estamos en estrecha coordinación con la policía de Nueva Zelanda para ayudar en su investigación».