Un TikTok viral de la especialista en criminología y ciberseguridad María Aperador reavivó la discusión sobre los riesgos que conlleva que las bocinas inteligentes graben nuestras conversaciones.
La especialista decidió pedir a Amazon un historial de datos sobre su cuenta y recibió un paquete con alrededor de 500 archivos de audio con varios “Alexa…”, sin embargo, su sorpresa fue que unos 50 contenían grabaciones en las que no mencionaba el comando para activarla.
@mariaperadorcriminologia 🚨Cuidado con lo que guarda #Amazon de vosotros mediante #Alexa #asistentevirtual #ciberseguridad #datos #audio #proteccion
“En teoría Amazon no hará un uso indebido de estos datos”, dice Aperador en su TikTok. “¿Pero qué pasaría si los ciberdelincuentes hackearan la base de datos de Amazon? Podrían perfectamente clonar nuestra voz con inteligencia artificial y suplantar nuestra identidad para estafar a otros o para abrir cuentas de banco, pedir préstamos, etc.”, dice preocupada a la vez que advierte que en un hackeo de tal magnitud tendrían acceso a otros datos sensibles, como el nombre y domicilio del usuario.
Aunque tal escenario es posible, pero improbable (Amazon y otras compañías tecnológicas invierten miles de millones de dólares anuales en ciberseguridad), la especialista termina por recomendar configurar Alexa para que no almacene los audios.
Esta configuración, hay que decirlo, dificulta a Amazon la mejora del reconocimiento de voz que hace Alexa. “Las grabaciones de voz se usan para comprender mejor las solicitudes y personalizar la experiencia con Alexa”, explica Amazon en la sección de Privacidad de su aplicación.
Digital Trends en Español consultó a un empleado que trabaja para Appen, una compañía contratada por Amazon para revisar la calidad de los audios almacenados por Alexa. “Los audios y su transcripción automatizada son revisados por un equipo de verificación”, cuenta el trabajador bajo condición de anonimato. “El trabajo consiste en verificar que la transcripción sea correcta, pero solo revisamos el audio y la transcripción, no hay más datos”, cuenta. ¿Recibiste audios sin el comando de Alexa? “Muy pocos, cuando eso sucede anotamos que el audio no es funcional”, explica.
Pero, ¿por qué bocinas inteligentes como Alexa graban a los usuarios cuando en teoría no tendrían por qué hacerlo? Josep Albors, un especialista en ciberseguridad consultado por El País, apunta a falsos positivos por una mejor o peor implementación de los sistemas de reconocimiento de voz. Descarta una trama en la que Amazon busque obtener datos adicionales a partir de grabaciones malintencionadas. “Supondría la pérdida de confianza en todos los dispositivos y un perjuicio económico importante”, explica.
Según datos de Statista, Alexa es la bocina inteligente más popular en Estados Unidos con 65% de participación de mercado. Google Home tiene el 26%, mientras que HomePod de Apple toma el 19%.
¿Cómo hacer para que Alexa no grabe?
Puedes configurar tu bocina Alex para que no almacene los audios. Sin embargo, siempre que digas “Alexa…” (o en su defecto “Hey Google” u “Oye Siri”) el audio será enviado a la nube para su procesamiento.
Por defecto, estos audios son almacenados por Amazon. Sin embargo, si deseas que Alexa no guarde tus grabaciones, en la app de Amazon ve a Mi cuenta, Contenido y dispositivos, Configuración de privacidad. Dentro de este menú, selecciona Privacidad de Alexa y ve a Administrar tus datos de Alexa. Ahí selecciona la opción Selecciona cuánto tiempo se guardarán las grabaciones y elige la opción No guardar las grabaciones.
Si deseas que Alexa no grabe, en tu dispositivo Alexa oprime el botón que inhabilita el micrófono. En dispositivos como el Echo Hub verás una luz roja que significa que el micrófono está deshabilitado.