Apple explica su sistema para detectar abuso infantil

Apple dio a conocer las tecnologías que utilizará para detectar la distribución de material relacionado con el abuso sexual infantil en su aplicación Messages y en su servicio en la nube iCloud.

Por una parte, Messages alertará a los usuarios la recepción y el envío de material explícito con la nueva característica de seguridad.

Estará disponible para las cuentas de niños vinculadas al plan En familia y usará el análisis mediante aprendizaje automático en el propio dispositivo.

Se tratará de una característica opcional, que padres o tutores deberán habilitar, tal como explica la compañía en una serie de preguntas y respuestas sobre las nuevas medidas de protección infantil que piensa implementar.

Apple informa que la encriptación de extremo a extremo se mantiene incluso con la nueva característica activada.

“Si la característica se ha habilitado para la cuenta del niño, el dispositivo evaluará las imágenes en Messages y presentará una intervención si se determina que la imagen es sexualmente explícita”, señala la firma.

Los padres también recibirán una notificación cada vez que el niño mande o reciba alguna imagen con contenido sexual explícito.

En el caso de iCloud, la herramienta funcionará con las fotos que el usuario elige subir al servicio de almacenamiento en la nube.

Acá, el sistema buscará coincidencias entre las imágenes que el usuario sube y las fotos que forman parte de la base de datos de organizaciones policiales o de seguridad infantil. En este caso no analizará las imágenes, sino etiquetas, casi como un tipo de huella digital.

“Estos hashes son cadenas de números que representan imágenes de material de abuso sexual infantil conocidas, pero no es posible leer o convertir esos hashes en las imágenes del material de abuso sexual infantil en las que se basan”, detalla la empresa.

Recomendaciones del editor