Facebook desactivó la función de recomendaciones basada en inteligencia artificial luego de que se sucediera un grave incidente racista. De acuerdo con The New York Times, el sistema catalogó un video del periódico británico Daily Mail en el que aparecían personas afrodescendientes como contenido de “primates”.
En específico, la red social mostraba en la grabación un mensaje automático en el que preguntaba al usuario si quería ver más videos de primates.
Darci Groves, una exempleada del conglomerado de redes sociales, dio la señal de alarma al tuitear sobre el error y compartir una captura de pantalla la semana pasada.
Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui
— Darci Groves (@tweetsbydarci) September 2, 2021
De acuerdo con el medio fuente, la red social desactivó el sistema de inteligencia artificial y remarcó que el mensaje no fue introducido por ningún empleado, sino que todo fue obra de la IA.
Respecto a lo ocurrido, la plataforma realiza una investigación y no volverá a activar el sistema hasta asegurarse de que el problema no ocurra de nuevo.
“Nos disculpamos con cualquiera que haya visto estas recomendaciones ofensivas”, dijo la compañía en un comunicado. “Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba pasando para así poder investigar la causa y evitar que suceda de nuevo”, añadió.
No es la primera vez que ocurre un incidente de corte racista y en el que un sistema de inteligencia artificial está involucrado. En 2015, el algoritmo de Google Fotos cometió el grave error de clasificar imágenes de personas negras como parte de la categoría “gorilas”.
Google aún no consigue solucionar este error y la única solución que ha implementado es eliminar dicha categoría junto a otras relacionada con primates para que no se repita algo similar.