Skip to main content

Los generadores de imágenes de IA parecen propagar estereotipos de género y raza

Los expertos han afirmado que los generadores de imágenes de IA populares, como Stable Diffusion, no son tan expertos en detectar los sesgos de género y culturales cuando utilizan algoritmos de aprendizaje automático para crear arte.

Muchos generadores de texto a arte le permiten ingresar frases y dibujar una imagen única en el otro extremo. Sin embargo, estos generadores a menudo pueden basarse en sesgos estereotipados, que pueden afectar la forma en que los modelos de aprendizaje automático fabrican imágenes. Las imágenes a menudo pueden occidentalizarse o mostrar favores a ciertos géneros o razas, dependiendo de los tipos de frases utilizadas, señaló Gizmodo.

What's the difference between these two groups of people? Well, according to Stable Diffusion, the first group represents an 'ambitious CEO' and the second a 'supportive CEO'.
I made a simple tool to explore biases ingrained in this model: https://t.co/l4lqt7rTQj pic.twitter.com/xYKA8w3N8N

— Dr. Sasha Luccioni 💻🌎✨ (@SashaMTL) October 31, 2022

Sasha Luccioni, investigadora de inteligencia artificial de Hugging Face, creó una herramienta que demuestra cómo funciona en acción el sesgo de IA en los generadores de texto a arte. Usando el Stable Diffusion Explorer como ejemplo, ingresar la frase «CEO ambicioso» obtuvo resultados para diferentes tipos de hombres, mientras que la frase «CEO de apoyo» dio resultados que mostraron tanto hombres como mujeres.

Del mismo modo, el generador DALL-E 2, que fue creado por la marca OpenAI, ha mostrado sesgos centrados en el hombre para el término «constructor» y sesgos centrados en la mujer para el término «asistente de vuelo» en los resultados de imágenes, a pesar de que hay constructoras y asistentes de vuelo masculinos.

Si bien muchos generadores de imágenes de IA parecen tomar solo unas pocas palabras y el aprendizaje automático y saca una imagen, hay mucho más que sucede en segundo plano. Stable Diffusion, por ejemplo, utiliza el conjunto de imágenes LAION, que alberga «miles de millones de imágenes, fotos y más extraídas de Internet, incluidos sitios de alojamiento de imágenes y arte», señaló Gizmodo.

El sesgo racial y cultural en las búsquedas de imágenes en línea ya ha sido un tema constante mucho antes de la creciente popularidad de los generadores de imágenes de IA. Luccioni dijo a la publicación que es probable que los sistemas, como el conjunto de datos LAION, se concentren en el 90% de las imágenes relacionadas con un mensaje y lo usen para el generador de imágenes.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
X parece haber borrado años de viejas imágenes de Twitter
x borro imagenes antiguas de twitter ellen selfie oscar

La plataforma de redes sociales anteriormente conocida como Twitter y recientemente rebautizada como X parece estar teniendo problemas para mostrar imágenes publicadas en el sitio entre 2011 y 2014.

El tema llamó la atención el sábado cuando el usuario de X Tom Coates notó cómo la famosa selfie publicada por Ellen DeGeneres en los Oscar en 2014, que rápidamente rompió el récord de "más retweets", ya no se mostraba. Informes posteriores sugirieron que la imagen había sido restaurada, aunque, en el momento de escribir este artículo, no la estamos viendo.

Leer más
La IA detecta el cáncer de mamas como los humanos y más rápido
ia detecta cancer de mamas rebekah vos koqlw776d2o unsplash

Un avance científico muy valioso podría estar dándose en el campo de la salud y en la detección del cáncer de mamas de manera más específica, ya que un estudio publicado en la revista The Lancet Oncology realizó un ensayo aleatorizado con 80,000 mujeres entre las edades de 40 a 80, con una edad media de 54 años, para comparar la eficacia de la IA en la lectura de mamografías en comparación con las lecturas estándar de los radiólogos.

Para llevar a cabo el ensayo, las mujeres que optaron por participar en el estudio en los cuatro sitios de detección en Suecia fueron asignadas aleatoriamente a exámenes apoyados por IA o lecturas dobles estándar sin IA en una proporción de 1: 1, lo que significa que la mitad fueron examinadas por AI y la otra mitad por radiólogos.

Leer más
Aterrador: IA clona voz de una chica y extorsionan a la familia
ia clona voz chica extorsionan familia michael lima q9aqu6g49iw unsplash

Una situación aterradora y que muestra las implicancias negativas de la inteligencia artificial se vivió en Arizona, Estados Unidos, según relató el New York Post y se trata de lo que vivió la familia DeStefano, luego de que un grupo de delincuentes clonara la voz de su hija para inventar un secuestro y pedir un lucrativo rescate.

Jennifer DeStefano reportó haber recibido la llamada de "su hija" supuestamente secuestrada para inmediatamente pasar el teléfono al secuestrador quien le pidió un millón de dólares para no dañarla. Jennifer declaró que ni por un segundo dudó que fuera la voz de su hija.

Leer más