Todo el mundo está familiarizado con el método estándar para ocultar la identidad de una persona en un artículo de prensa o en un vídeo, lo que implica con frecuencia hacer borrosa o pixelar la cara con el fin de hacerla irreconocible.
Con esta técnica los rostros siguen siendo irreconocibles para la inmensa mayoría de la gente, pero no es tan fácil engañar a la informática moderna.
Relacionado: Facebook Messenger también es vulnerable
Esa información es fruto de un nuevo proyecto llevado a cabo por investigadores de la Universidad de Texas, en Austin, y la Universidad de Cornell, que ha utilizado el aprendizaje profundo para corregir las identidades de personas ocultas por los métodos tradicionales.
Mientras que una persona se supone que puede ocultar identidades correctamente el 0,19% de las veces, el sistema de aprendizaje de la máquina es capaz de hacer un juicio correcto con el 83% de exactitud.
«La distorsión y pixelación se utilizan a menudo para ocultar las identidades de las personas en las fotos y vídeos», explica Vitaly Shmatikov, profesor de ciencias de la computación en Cornell, a Digital Trends. «En muchos de estos escenarios, el adversario tiene una idea bastante buena de un pequeño conjunto de posibles personas que podrían haber aparecido en la imagen, y sólo tiene que averiguar cuál de ellos está en la imagen», añade.
Este, continúa Shmatikov, es exactamente el escenario en el que la tecnología funciona bien. «Demuestra que la borrosidad, los métodos de pixelación y otros de oscurecimiento de la imagen no pueden ofrecer una gran protección al exponer la identidad de alguien y ponerla en riesgo», subraya. El desafío, por supuesto, es que a menudo se utilizan tales métodos de disociación de la identidad para proteger a una persona, un denunciante o un testigo de un crimen.
Mediante la aplicación de este tipo de algoritmos de reconocimiento de imágenes, basados en redes neuronales artificiales, en aquellas imágenes retocadas con las herramientas habituales, las personas podrían estar en peligro. «El reto fundamental es cerrar la brecha entre las tecnologías de protección de la privacidad y la máquina», dijo Shmatikov. «Muchos diseñadores de tecnologías relacionadas con la privacidad no aprecian plenamente el poder de aprendizaje de la máquina moderna y esto conduce a que dichas tecnologías no protegen en realidad dicha privacidad», concluye.