Skip to main content

No más sesgos: IA de Google elimina etiquetas de género

Las calificaciones de “mujer” y “hombre” se acabaron para la inteligencia artificial (IA) de Google, en particular en lo que respecta a la interfaz de programación de aplicaciones (API por su sigla en inglés) Cloud Vision.

Pensada en desarrolladores, la herramienta adjunta etiquetas a las fotografías para identificar los contenidos, entre ellas el género cuando en las imágenes detecta que hay personas.

Entre otros elementos, Cloud Vision “puede detectar caras, puntos de referencia, logotipos de marcas e incluso contenido explícito”, informó Business Insider.

El medio reveló que Google notificó de su decisión a los desarrolladores a través de un correo electrónico. En lugar de las etiquetas de género, clasificará a cualquier ser humano simplemente como «persona».

¿Cuál fue la razón? Simple: Google asumió que no es posible inferir el género de alguien únicamente a partir de su apariencia y que, por lo demás, dicha denominación puede trasgredir sus normas éticas. “Evite crear o reforzar sesgos injustos», reza el Principio #2.

Business Insider subrayó que el sesgo en la IA es un tema “ampliamente discutido”, respecto del cual los investigadores han manifestado su preocupación, pues datos defectuosos pueden exacerbar o crear suposiciones injustas.

“Un ejemplo son los algoritmos de reconocimiento facial que identifican erróneamente a las personas de color con más frecuencia que las personas blancas”, graficó el medio.

La medida fue calificada como «muy positiva» por Frederike Kaltheuner, experta en sesgo de inteligencia artificial y quien colabora con Mozilla en temas de política tecnológica. Según reflexionó, “cada vez que se clasifica automáticamente a las personas, ya sea por su género u orientación sexual, debes decidir qué categorías usas en primer lugar, y eso acarrea muchas suposiciones”.

«Clasificar a las personas como hombres o mujeres supone que el género es binario. Cualquiera que no se ajuste automáticamente se clasificará de manera errónea y se generará un error. Por lo tanto, se trata de algo más que un prejuicio: el género de una persona no puede inferirse por apariencia. Cualquier sistema de IA que lo haya intentado hacer eso inevitablemente confundirá a las personas», comentó a la misma publicación.

Citados por Business Insider, Google reconoce en sus principios de IA que los algoritmos y los conjuntos de datos pueden reforzar el sesgo: «Buscaremos evitar impactos injustos en las personas, particularmente aquellas relacionadas con características sensibles como raza, origen étnico, género, nacionalidad, ingresos, orientación sexual, capacidad y creencia política o religiosa».

Recomendaciones del editor

Juan José Castillo
Ex escritor de Digital Trends en Español
Juan José se ha desempeñado por cerca de dos décadas como periodista en medios de comunicación e instituciones públicas…
Google te da 12 días de capacitación gratis en IA generativa
google capacitacion gratis ia generativa steve johnson  0iv9lmpdn0 unsplash

El mes de diciembre es de regalos y por eso la gente de Google Cloud está dando gratis una capacitación de 12 días de entrenamiento para mejorar habilidades en IA generativa.

Google sostiene que "estos entrenamientos de IA de generación no tienen costo para verlos y completarlos, sin importar cuándo los complete este mes".

Leer más
Las imágenes falsas de IA están apareciendo en la búsqueda de Google
imagenes falsas ia apareciendo busqueda google israel kamakawiwo  ole

Imagen utilizada con permiso del titular de los derechos de autor
En este momento, si escribes "Israel Kamakawiwoʻole" en la búsqueda de Google, no ves una de las famosas portadas de álbumes del cantante, o una imagen de él interpretando una de sus canciones en su icónico ukelele. Lo primero que se ve es una imagen de un hombre sentado en una playa con una sonrisa en su rostro, pero no una foto del hombre en sí tomada con una cámara. Esta es una foto falsa generada por IA. De hecho, cuando haces clic en la imagen, te lleva al subreddit de Midjourney, donde se publicó inicialmente la serie de imágenes.

Esto fue publicado por primera vez por Ethan Mollick en X (antes conocido como Twitter), un profesor de Wharton que estudia IA.

Leer más
¿De qué se trata el proyecto secreto Q* de una IA mortal para la humanidad?
proyecto q openai ia peligrosa para la humanidad robot matem  ticas

Se van despejando las incógnitas respecto a las razones que habrían gatillado la petición de salida de Sam Altman de OpenAI, ya que se filtró hace unas horas que una carta de la junta directiva puso en evidencia un proyecto secreto que estaba trabajando el equipo del destituido y luego retornado CEO, de una IA muy poderosa capaz de dañar la integridad de la humanidad: el proyecto Q*.
Según una de las fuentes, la veterana ejecutiva Mira Murati mencionó el proyecto, llamado Q* (pronunciado Q-Star), a los empleados el miércoles y dijo que se había enviado una carta al consejo antes de los acontecimientos del reciente fin de semana.
Tras la publicación de la noticia, una portavoz de OpenAI dijo que Murati había comunicado a los empleados lo que los medios iban a informar, pero no hizo comentarios sobre la exactitud de la información.

De qué se trata exactamente Q*
Q* fue descrita como una superinteligencia (AGI), según dos fuentes cercanas al directorio de OpenAI citadas por Reuters, y este adjetivo tenía concordancia con sus capacidades.
El nuevo modelo, dotado de vastos recursos informáticos, fue capaz de resolver algunos problemas matemáticos, dijo la persona bajo condición de anonimato por no estar autorizada a hablar en nombre de la empresa.
Si bien solo resuelve operaciones matemáticas para estudiantes de primaria, el hecho de superar estas pruebas hace que los investigadores sean muy optimistas sobre el futuro éxito de Q*, según la fuente.

Leer más