Un importante estudio de la Universidad de Stanford detectó que varios de los más importantes sistemas de reconocimiento de voz del mundo, Amazon, Apple, Google, IBM y Microsoft cometen muchos más errores con los usuarios negros que con los blancos.
Según esta investigación, el sesgo racial se nota en la disparidad de admisión de palabras pronunciadas para entrenar la inteligencia artificial del sistema.
Los promedios en las cinco compañías que se testaron muestran que los sistemas identificaron erróneamente las palabras de las personas blancas aproximadamente el 19 por ciento de las veces. Para los negros, esta cifra saltó al 35 por ciento. Alrededor del dos por ciento del audio de las personas blancas se consideró ilegible, mientras que esto aumentó al 20 por ciento para las personas negras.
Según manifiestan en el estudio, «existe la preocupación de que los sistemas de reconocimiento de voz adolecen de prejuicios raciales, un problema que recientemente ha salido a la luz en varias otras aplicaciones avanzadas de aprendizaje automático, como el reconocimiento facial, natural procesamiento del lenguaje, publicidad en línea y predicción de riesgos en la justicia penal, atención médica y servicios para niños. Aquí, evaluamos las disparidades raciales en cinco herramientas comerciales de voz a texto, desarrolladas por Amazon, Apple, Google, IBM y Microsoft, que potencian algunas de las aplicaciones más populares de la tecnología de reconocimiento de voz».
La única compañía que contestó a la investigación de Stanford fue Google, que afirmó que «hemos estado trabajando en el desafío de reconocer con precisión las variaciones del habla durante varios años, y continuaremos haciéndolo».
La conclusión de la investigación es demoledora en lo que tiene que ver con la discriminación contra la población negra.
«Las brechas de rendimiento que hemos documentado sugieren que es considerablemente más difícil para los afroamericanos beneficiarse del uso cada vez más extendido de la tecnología de reconocimiento de voz, desde asistentes virtuales en teléfonos móviles hasta computación manos libres para personas con discapacidades físicas. Estas disparidades también pueden dañar activamente a las comunidades afroamericanas cuando, por ejemplo, los empleadores utilizan el software de reconocimiento de voz para evaluar automáticamente las entrevistas con los candidatos o las agencias de justicia penal para transcribir automáticamente los procedimientos judiciales», señala el estudio.