Durante este año se ha hablado sobre la brutal represión del régimen chino hacia los uigures, grupo étnico conformado mayoritariamente por musulmanes y que subsiste en las regiones del noroeste de aquel vasto territorio.
Ahora, The Washington Post añade nueva y preocupante información al revelar que Huawei habría probado un software de Inteligencia Artificial (IA) que podría reconocer a las minorías uigures y alertar a la policía.
De acuerdo con el artículo, existe preocupación ya que esta herramienta podría incentivar la represión del gobierno de China sobre este grupo minoritario.
El medio tuvo acceso a un documento de 2018 firmado por representantes de Huawei donde se menciona que la compañía trabajó con la empresa de reconocimiento facial Megvii para probar un sistema de cámaras de IA que podía escanear rostros en una multitud y estimar la edad, el sexo y la etnia a la que pertenecía cada persona.
Si el sistema detectaba la presencia de algún miembro de esta etnia, disparaba una suerte de “alarma uigur” que alertaba a las autoridades y al cuerpo de policía.
A este documento también tuvo acceso la organización de investigación IPVM. El informe habría desaparecido del sitio web de Huawei, justo después de que IPVM y The Washington Post le solicitaron a la compañía hacer comentarios al respecto.
«Esta no es una empresa aislada. Esto es sistemático. Se ha pensado mucho para asegurar que esta ‘alarma uigur’ funcione», señaló John Honovich, fundador de IPVM, empresa que revisa e investiga los equipos de videovigilancia.
Por su parte, tanto Huawei como Megvii han reconocido que el documento es real. Sin embargo, un representante de la tecnológica ha señalado que “es simplemente una prueba y no ha visto aplicación en el mundo real”.
Por último, un vocero de Megvii explicó que los sistemas de la compañía no están diseñados para atacar o etiquetar a grupos étnicos.
La denuncia hecha por The Washington Post ha generado preocupación dentro de los grupos que velan por el respeto de los derechos humanos.
Una representante para China de Human Rights Watch, afirmó: «Estos sistemas se prestarían bastante bien en los países que quieren criminalizar a las minorías».