Miembros del Parlamento Europeo (PE) han advertido sobre los sesgos en los que incurren los algoritmos de inteligencia artificial (IA), en especial cuando son utilizados por los cuerpos de policía para la vigilancia masiva.
Los eurodiputados indican que las decisiones finales siempre deben ser tomadas por personas y recalcan que los afectados necesitan tener la posibilidad de apelar a este tipo de sentencias.
Esta resolución, adoptada con 377 votos a favor, advierte que “muchas tecnologías de identificación basadas en algoritmos cometen más errores al identificar y clasificar a personas racializadas o pertenecientes a determinadas comunidades étnicas, a personas LGBTI, a niños y personas mayores, y también a mujeres”.
La sentencia, que no es vinculante, podría enviar una señal importante sobre cómo podría votar este Parlamento en las próximas negociaciones de la Ley de IA.
La propuesta de ley de la Comisión Europea restringe el uso de la identificación biométrica a distancia (incluida la tecnología de reconocimiento facial) en lugares públicos, a menos que sea para luchar contra delitos “graves”, como los secuestros y el terrorismo.
“Pedimos una moratoria en el despliegue de los sistemas de reconocimiento facial en el ámbito policial, pues la tecnología se ha demostrado ineficaz y a menudo discriminatoria. Estamos en contra de las técnicas de predicción del comportamiento basadas en inteligencia artificial, así como del tratamiento de datos biométricos para la vigilancia masiva”, afirma el diputado del PE Petar Vitanov.