Ese pájaro de sonido inocente que canta todo el día podría no serlo tanto como pensamos si nos atenemos a lo que han descubierto un grupo de científicos de la universidad de Ruhr en Bochum, Alemania.
Según este equipo, se podrían manipular las ondas de audio a partir de los sonidos de las aves para lanzar un ataque contra los asistentes de voz. Estos investigadores han descrito esta técnica como un «ataque adverso», diseñado para confundir las redes neuronales profundas que ayudan a los asistentes dotados de inteligencia artificial como Siri, Google Assistant o Alexa.
Usando el piar de los pájaros (modificando archivos de habla humana de manera que solo el micrófono del altavoz inteligente o teléfono inteligente lo pueda captar) el ataque se escapa a la capacidad auditiva humana y comienza a relacionarse con el asistente por voz. De esta manera, lo que suena como la melódica canción de un pájaro podría ser en realidad un ataque que incorpora comandos ocultos que se envían al asistente.
Los investigadores sugieren que los ataques, que utilizan la ocultación psicoacústica para enmascarar sus verdaderas intenciones, podrían llevarse a cabo a través de una aplicación u ocultarse en otro tipo de transmisiones, como por ejemplo, ocultándose en un anuncio que se reproduce en la televisión o radio para alcanzar miles de objetivos a la vez.
«[En] en el peor de los casos, un atacante podría controlar todo el sistema de gestión de un hogar inteligente, incluidas las cámaras de seguridad o los sistemas de alarma», explican los investigadores, según recoge Fast Company.
Con todo, este tipo de ataques se enfrenta a una limitación teórica: los investigadores han modificado los archivos de audio que contienen el comando de forma que los asistentes puedan escuchar el mensaje claramente. Sin embargo, los científicos afirman en que el ataque podría llevarse a cabo por otros medios. «En general, es posible oculta cualquier transcripción con una tasa de éxito de casi el 100%», concluyen en su artículo.
No hay muchas formas de defenderse contra un ataque de este tipo, pero en cualquier caso, requeriría de un gran esfuerzo generar un ataque de este tipo y es poco probable que tenga lugar, aunque sea factible.
En este sentido, lo más recomendable es seguir las indicaciones de seguridad del fabricante de la bocina inteligente en cuestión. Así, Alexa, por ejemplo, puede configurarse para que se solicites un PIN antes de completar una compra y mantener tu seguridad a salvo.