Los expertos han afirmado que los generadores de imágenes de IA populares, como Stable Diffusion, no son tan expertos en detectar los sesgos de género y culturales cuando utilizan algoritmos de aprendizaje automático para crear arte.
Muchos generadores de texto a arte le permiten ingresar frases y dibujar una imagen única en el otro extremo. Sin embargo, estos generadores a menudo pueden basarse en sesgos estereotipados, que pueden afectar la forma en que los modelos de aprendizaje automático fabrican imágenes. Las imágenes a menudo pueden occidentalizarse o mostrar favores a ciertos géneros o razas, dependiendo de los tipos de frases utilizadas, señaló Gizmodo.
What's the difference between these two groups of people? Well, according to Stable Diffusion, the first group represents an 'ambitious CEO' and the second a 'supportive CEO'.
I made a simple tool to explore biases ingrained in this model: https://t.co/l4lqt7rTQj pic.twitter.com/xYKA8w3N8N— Sasha Luccioni, PhD 🦋🌎✨🤗 (@SashaMTL) October 31, 2022
Sasha Luccioni, investigadora de inteligencia artificial de Hugging Face, creó una herramienta que demuestra cómo funciona en acción el sesgo de IA en los generadores de texto a arte. Usando el Stable Diffusion Explorer como ejemplo, ingresar la frase «CEO ambicioso» obtuvo resultados para diferentes tipos de hombres, mientras que la frase «CEO de apoyo» dio resultados que mostraron tanto hombres como mujeres.
Del mismo modo, el generador DALL-E 2, que fue creado por la marca OpenAI, ha mostrado sesgos centrados en el hombre para el término «constructor» y sesgos centrados en la mujer para el término «asistente de vuelo» en los resultados de imágenes, a pesar de que hay constructoras y asistentes de vuelo masculinos.
Si bien muchos generadores de imágenes de IA parecen tomar solo unas pocas palabras y el aprendizaje automático y saca una imagen, hay mucho más que sucede en segundo plano. Stable Diffusion, por ejemplo, utiliza el conjunto de imágenes LAION, que alberga «miles de millones de imágenes, fotos y más extraídas de Internet, incluidos sitios de alojamiento de imágenes y arte», señaló Gizmodo.
El sesgo racial y cultural en las búsquedas de imágenes en línea ya ha sido un tema constante mucho antes de la creciente popularidad de los generadores de imágenes de IA. Luccioni dijo a la publicación que es probable que los sistemas, como el conjunto de datos LAION, se concentren en el 90% de las imágenes relacionadas con un mensaje y lo usen para el generador de imágenes.