Dentro de su constante esfuerzo por mantener la cordialidad y prevenir las polémicas, Instagram anunció que a partir del 16 de diciembre de 2019 utilizará la inteligencia artificial (IA) para notificar a sus usuarios si el texto que están escribiendo junto a sus fotos o videos contiene lenguaje que pudiera resultar ofensivo, para darles la oportunidad de moderar sus palabras antes de publicarlas.
“Como parte de nuestro compromiso a largo plazo por encabezar el combate contra el bullying en línea hemos desarrollado y probado un sistema de IA que puede reconocer diferentes formas de bullying en Instagram (…) Hemos descubierto que este tipo de intercesión puede alentar a la gente a reconsiderar sus palabras, cuando se les da la oportunidad”, publicó la red social.
Esta función, que pretende encontrar un equilibrio entre la libertad de expresión y la armonía, estará disponible en una cantidad limitada de países, para después expandirse a todo el mundo. “Esta advertencia ayuda a educar a la gente para que sepan lo que no permitimos en Instagram y cuándo una cuenta podría correr el riesgo de romper nuestras reglas”, agregó la filial de Facebook, también conocida por sus estrictas políticas de censura frente a las imágenes del cuerpo humano.
Aunque el acoso cibernético no es un asunto exclusivo de Instagram, esta plataforma ha resultado particularmente problemática. Un estudio de 2017 descubrió que el 17 por ciento de los adolescentes son acosados en redes sociales y que la mayor parte de ese tiempo ese acoso ocurre en Instagram. En octubre, la red social lanzó una función que permite que un usuario proteja su cuenta de las interacciones no deseadas con personas agresivas; si restringes a alguien, dejarás de ver sus comentarios.
Otra medida que Instagram ha puesto a prueba es la de ocultar la cantidad de “likes” que ha recibido algún contenido, con el objetivo de fomentar más la expresión y la conexión entre personas, en lugar de la competencia y la búsqueda de la popularidad.