Apple estaría trabajando en un nuevo sistema para detectar contenido relacionado con pornografía infantil alojada en las galerías de sus usuarios de iPhone.
De acuerdo con un reporte de 9to5Mac, Apple utilizaría sistemas automatizados que comparan los hashes de los archivos contenidos en los dispositivos con una base de datos de material prohibo que además está relacionado con abuso infantil.
Los dispositivos descargarían un conjunto de datos en forma de “huellas digitales” para poder compararlos con las fotos de la galería de cada dispositivo. Apple ya ha usado sistemas similares para detectar este tipo de contenido en los archivos de iCloud, así como en los archivos adjuntos en correos electrónicos.
El experto en criptografía y seguridad Matthew Green dijo en su cuenta de Twitter que este sistema no es difícil de implementar, pero que los algoritmos del sistema de comparación de hashes no son infalibles y existe el riesgo de que se den falsas alarmas.
Green también alerta de que en el caso de que Apple permita a las autoridades controlar esas huellas que se descargarán en los iPhone de las personas, se podría abrir la puerta para que los gobiernos busquen otro tipo de imágenes en los teléfonos de los usuarios y se vea afectada la privacidad de las personas.
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Apple aún no ha anunciado de manera oficial esta iniciativa, pero es posible que funcione de modo similar al de las herramientas de aprendizaje automático para identificación de objetos y escenas que ya están presentes en Apple Photos.