IA de Facebook apenas elimina 5 por ciento del contenido que incita al odio

Facebook intenta por todas las vías sacudirse de las acusaciones de su exfuncionaria Frances Haugen, que afirmó en una entrevista que la compañía no se preocupa por la seguridad de sus usuarios.

Un nuevo artículo publicado por The Wall Street Journal señala que Facebook está consciente de que su inteligencia artificial (IA) apenas es capaz de eliminar una parte mínima del contenido que incita al odio en su plataforma.

Según el artículo, esto pasa porque los algoritmos no pueden detectar o diferenciar una gran variedad de contenidos, como discursos racistas, accidentes de tránsito y videos grabados en primera persona.

Facebook explicó que ha logrado reducir con éxito el discurso de odio en la red social casi en 50 por ciento en los últimos tres años.

De acuerdo con Guy Rosen, vicepresidente de integridad de Facebook, esto se debe en gran parte a los sistemas de IA “mejorados y ampliados”.

Sin embargo, en la publicación de The Wall Street Journal algunos empleados de la empresa comentan que la utilización de tecnologías apenas elimina entre 3 y 5 por ciento del contenido violento o que incita al odio.

Según los documentos a los que tuvo acceso el medio, Facebook prescindió de parte del equipo humano que se encargaba de detectar las noticias falsas o los discursos de odio. Al mismo tiempo, llevaron a cabo varias medidas que le permitieron disminuir este tipo de contenidos, tarea que le atribuyeron al uso de inteligencia artificial.

Así, de acuerdo con lo confirmado por la empresa, el contenido que no cumple con las normas de la red social, pero que tampoco es detectado por la IA, se muestra con menos frecuencia, y no se elimina.

Para responder al artículo de WSJ, Rosen asegura que “centrarse solo en la eliminación de contenido es la forma incorrecta de ver cómo Facebook lucha contra el discurso de odio”.

Recomendaciones del editor