Skip to main content

Facebook utiliza la IA para encontrar contenidos ofensivos

facebook inteligencia artificial contenido computer male facing screen dark background 640x0
Imagen utilizada con permiso del titular de los derechos de autor
“Moderación en el contenido” es una expresión común en el lenguaje académico o en una tarea editorial, pero la realidad sobre esta expresión está tomando matices más oscuros.

De acuerdo a Wired, hay más de 100,000 personas que tienen como trabajo en las Filipinas y en los Estados Unidos, el de leer el contenido en línea buscando comentarios ofensivos, amenazadores, obscenos o abusivos.

Recommended Videos

Relacionado: Google anuncia nueva plataforma de mensajería con toques de inteligencia artificial

El nivel de estrés que manejan estos moderadores es inmenso y puede dejar problemas emocionales.

Es una realidad  sobre la necesidad de tener contenido en la web, con el cual los usuarios interactúen.

Twitter, Google, Netflix, YouTube y otras compañías no publican los problemas de moderación de contenidos con los que se encuentran a diario, pero eso no quiere decir que no estén haciendo esfuerzos para controla el problema.

No se trata simplemente de controlar la información que aparece en sus plataformas, sino también de construir sistemas de inteligencia artificial capaces de reconocerlos y que sea capaz de hacer este trabajo.

Los ingenieros de Facebook declararon hace poco que los sistemas de inteligencia artificial están ahora encontrando más contenido ofensivo que el que encontraban los seres humanos, ,de acuerdo a un reporte de TechCrunch.

Joaquín Candela, el Director de Ingeniería de Facebook para aprendizaje de las máquinas,  habló sobre el incremento del uso de este tipo de sistemas en varios aspectos del negocio que es Facebook, incluyendo el área de moderación de contenido.

“Algo que sucede hoy es que estamos encontrando más fotos ofensivas con algoritmos de inteligencia artificial que con personas (…) entre más la utilicemos, menos posibilidades habrá de que los usuarios las vean”, afirma Candela.

Claramente, estos sistemas no son perfectos y algunos errores han sucedido. Un reporte de Wired indica que en el 2015, Twitter afirmó que su sistema de inteligencia artificial está diseñado para reconocer la pornografía el 99% de las veces.

Relacionado: Inteligencia Artificial predice y gana en el Derby de Kentucky

Sin embargo, la red social admite que el 7% de esos contenidos bloqueados eran inocentes y habían sido bloqueadas de forma incorrecta.

Muchas veces las imágenes dadas de baja, son fotos de bebés medio desnudos o madres lactando.

Esto quiere decir que los sistemas de inteligencia artificial  tienen aún mucho por aprender y a partir de ahí, cambiar el tipo de análisis que hacen con la información que reciben.

Varias redes sociales están trabajando en conjunto para compartir y aprender sobre estos sistemas y un ingeniero de Facebook añade que no ven la inteligencia artificial como un arma secreta para competir con las otras empresas”.

Juliana Jara
Ex escritor de Digital Trends en Español
Juliana Jara es politóloga egresada de la Universidad ICESI de Cali, Colombia y decidió poco después estudiar una…
Threads es la peor plataforma de redes sociales en cuidar la privacidad del usuario
threads peor plataforma de redes sociales en cuidar privacidad del usuario azamat e nl1t9wyq8yk unsplash

Una interesante investigación de Home Security Heroes, cuantificó la seguridad y privacidad para los usuarios en las diferentes plataformas de redes sociales existentes, y deja a la naciente Threads de Meta como la peor.

"Al evaluar los patrones de recopilación de datos, control de usuario, seguridad y experiencia del usuario para diferentes aplicaciones, determinamos plataformas que sobresalen en la protección de la información personal y aquellas que se quedan decepcionantemente cortas", dice el estudio.

Leer más
Cómo funciona OnlyFans: más allá del contenido para adultos
OnlyFans

Aunque el vínculo entre OnlyFans y el material audiovisual para audiencias maduras parece ser indisoluble, la plataforma de origen británico es mucho más que eso. Si todavía no estás familiarizado, te explicamos qué es OnlyFans más allá del contenido para adultos.
Te va a interesar:

Investigación: OnlyFans permitió contenido ilegal en ciertas cuentas
OnlyFans lanza aplicación sin contenido para adultos
Mi vida en OnlyFans

Leer más
El próximo paso de ChatGPT: moderar contenido ilegal y polémico en Facebook
chatgpt moderar contenido ilegal polemico facebook emiliano vittoriosi kdnhf7vjsik unsplash

GPT-4, el modelo de lenguaje grande (LLM) que impulsa ChatGPT Plus, pronto puede asumir un nuevo papel como moderador en línea, vigilando foros y redes sociales en busca de contenido nefasto que no debería ver la luz del día. Eso es según una nueva publicación de blog del desarrollador de ChatGPT OpenAI, que dice que esto podría ofrecer "una visión más positiva del futuro de las plataformas digitales".

Al reclutar inteligencia artificial (IA) en lugar de moderadores humanos, OpenAI dice que GPT-4 puede promulgar "iteraciones mucho más rápidas en los cambios de política, reduciendo el ciclo de meses a horas". Además de eso, "GPT-4 también es capaz de interpretar reglas y matices en la documentación de políticas de contenido largo y adaptarse instantáneamente a las actualizaciones de políticas, lo que resulta en un etiquetado más consistente", afirma OpenAI.
Rolf van Root / Unsplash
Por ejemplo, la publicación del blog explica que los equipos de moderación podrían asignar etiquetas al contenido para explicar si cae dentro o fuera de las reglas de una plataforma determinada. GPT-4 podría entonces tomar el mismo conjunto de datos y asignar sus propias etiquetas, sin saber las respuestas de antemano.

Leer más