Las calificaciones de “mujer” y “hombre” se acabaron para la inteligencia artificial (IA) de Google, en particular en lo que respecta a la interfaz de programación de aplicaciones (API por su sigla en inglés) Cloud Vision.
Pensada en desarrolladores, la herramienta adjunta etiquetas a las fotografías para identificar los contenidos, entre ellas el género cuando en las imágenes detecta que hay personas.
Entre otros elementos, Cloud Vision “puede detectar caras, puntos de referencia, logotipos de marcas e incluso contenido explícito”, informó Business Insider.
El medio reveló que Google notificó de su decisión a los desarrolladores a través de un correo electrónico. En lugar de las etiquetas de género, clasificará a cualquier ser humano simplemente como «persona».
¿Cuál fue la razón? Simple: Google asumió que no es posible inferir el género de alguien únicamente a partir de su apariencia y que, por lo demás, dicha denominación puede trasgredir sus normas éticas. “Evite crear o reforzar sesgos injustos», reza el Principio #2.
Business Insider subrayó que el sesgo en la IA es un tema “ampliamente discutido”, respecto del cual los investigadores han manifestado su preocupación, pues datos defectuosos pueden exacerbar o crear suposiciones injustas.
“Un ejemplo son los algoritmos de reconocimiento facial que identifican erróneamente a las personas de color con más frecuencia que las personas blancas”, graficó el medio.
La medida fue calificada como «muy positiva» por Frederike Kaltheuner, experta en sesgo de inteligencia artificial y quien colabora con Mozilla en temas de política tecnológica. Según reflexionó, “cada vez que se clasifica automáticamente a las personas, ya sea por su género u orientación sexual, debes decidir qué categorías usas en primer lugar, y eso acarrea muchas suposiciones”.
«Clasificar a las personas como hombres o mujeres supone que el género es binario. Cualquiera que no se ajuste automáticamente se clasificará de manera errónea y se generará un error. Por lo tanto, se trata de algo más que un prejuicio: el género de una persona no puede inferirse por apariencia. Cualquier sistema de IA que lo haya intentado hacer eso inevitablemente confundirá a las personas», comentó a la misma publicación.
Citados por Business Insider, Google reconoce en sus principios de IA que los algoritmos y los conjuntos de datos pueden reforzar el sesgo: «Buscaremos evitar impactos injustos en las personas, particularmente aquellas relacionadas con características sensibles como raza, origen étnico, género, nacionalidad, ingresos, orientación sexual, capacidad y creencia política o religiosa».