Skip to main content

Revés judicial: reconocimiento facial violó derechos humanos

En un inédito dictamen, un tribunal del Reino Unido estableció que la tecnología de reconocimiento facial utilizada por la policía británica violó los derechos humanos y la protección de datos.

El Tribunal de Apelación de Gran Bretaña consideró “ilegal” el uso de las técnicas usadas en el caso de Ed Bridges, un activista de los derechos civiles.

Bridges argumentó que la policía de Gales del Sur le causó «angustia», cuando escaneó su rostro mientras compraba en 2017 y durante una protesta pacífica contra el uso de armas en 2018.

Según la sentencia, quién es objeto del uso de la tecnología de vigilancia y dónde se implementa, son decisiones en las que se le entrega “demasiada discreción a los agentes de policía».

El dictamen estableció que no había una guía clara sobre dónde se podría usar el software AFR Locate y quién podría incluirse en la lista de vigilancia.

Además, estableció que las fuerzas policiales no adoptaron medidas razonables para averiguar si el software tenía un sesgo racial o de género; y que la evaluación de impacto de protección de datos fue deficiente.

«El tribunal ha acordado que esta herramienta de vigilancia distópica viola nuestros derechos y amenaza nuestras libertades», afirmó la abogada Megan Goulding, del grupo de derechos civiles Liberty en declaraciones a la agencia AP.

Según la abogada, el reconocimiento facial “discrimina a las personas de color y es absolutamente correcto que el tribunal dictaminara que la policía de Gales del Sur no cumplió con su deber de investigar y evitar la discriminación».

El jefe de policía de la Policía de Gales del Sur, Matt Jukes, afirmó que la prioridad es proteger a la población, con un uso «responsable y justo» de la tecnología.

“Las cuestiones de confianza pública, equidad y transparencia son de vital importancia, y el Tribunal de Apelación tiene claro que se necesita más trabajo para garantizar que no hay riesgo de que incumplamos nuestros deberes en materia de igualdad”, precisó.

Recomendaciones del editor

Rodrigo Orellana
Ex escritor de Digital Trends en Español
Twitter, Facebook, Instagram, WhatsApp, Telegram, criptomonedas, metaverso, son algunos de los temas que aborda el periodista…
Un grupo de monjas causa problemas a Microsoft
monjas dando problemas microsoft

Microsoft encontró un nuevo y formidable rival en el mundo. Pero no se trata de una multinacional como su competencia tradicional, sino de un grupo de monjas que pertenecen a un grupo de accionistas de Microsoft y que buscan que la empresa se haga responsable por las consecuencias éticas y sociales de la tecnología que desarrollan.

Las monjas son parte de las Hermanas de San José de la Paz (en inglés, Sisters of St. Joseph of Peace) y tienen dos peticiones muy específicas para la mesa de directores de Microsoft. Una de ellas tiene que ver con asegurar que los lobbystas de la compañía estén a la altura de los valores que la compañía dice tener respecto a la privacidad, la justicia racial y los derechos humanos.

Leer más
Facebook evalúa cerrar su sistema de reconocimiento facial
redencion facebook robot fibra optica

A raíz de la creciente preocupación de la sociedad por la utilización de esta tecnología, Facebook cerrará su sistema de reconocimiento facial que identifica de manera automática a los usuarios en fotos y videos.

La compañía (renombrada Meta la semana pasada) dijo que más de un tercio de los usuarios ha optado por la configuración de reconocimiento facial en la red social; este cambio ahora eliminará las plantillas de reconocimiento de más de 1,000 millones de personas.

Leer más
Twitter reconoce que su algoritmo favorece los tuits de derecha
Una computadora con el logo de Twitter

Twitter realizó un estudio interno sobre qué tipo de contenido político tiene mayor alcance en la plataforma y descubrieron que el algoritmo favorece los tuits de derecha más que los de izquierda.

En una publicación en su blog, la red social explicó que el estudio se enmarca en una serie de investigaciones respecto a cómo opera su algoritmo en varios tópicos. Una de las conclusiones es que los medios de comunicación con tendencias políticas de derecha resultan más favorecidos por el algoritmo que organizaciones similares, pero de izquierda.

Leer más