Entre el malware que se puede esconder en aplicaciones aparentemente inocentes, y los mensajes que tienen el poder de infiltrar un virus que puede bloquear tu teléfono, la batalla para mantener nuestros dispositivos inteligentes seguros es infinita. Cada nuevo modo de interacción presenta otra manera por la cual los hackers pueden acceder y manipular la tecnología que nos rodea.
Y ahora, parece que le tocó el turno a las bocinas que están controladas por los asistentes inteligentes. Investigadores han demostrado la posibilidad de ocultar comandos de voz maliciosos en la música, que son capaces de engañar a Alexa de Amazon, Siri de Apple o el Asistente de Google, y ordenarles que los ejecuten.
Esto significa que se desarrolló una manera de distorsionar comandos de voz lo suficientemente bien para que los asistentes inteligentes pudieran entenderlos, pero que sean ininteligibles para la mayoría de los oídos humanos.
Para darle contexto a la noticia, en el año 2016, un grupo de estudiantes de la Universidad Berkeley de California y la Universidad de Georgetown demostraron que podían emitir comandos que estaban ocultos al oído humano, y mandarlos a dispositivos inteligentes como Google Home y Amazon Echo al esconderlos en ruido blanco, como se puede ver en un video que detalla la investigación.
Ahora, dos de los estudiantes de Berkeley que participaron en el estudio previo han publicado un nuevo documento que afirma que ese tipo de comandos también pueden ser ocultados en la música o en otros tipos de audio, o incluso escondidos dentro de grabaciones de habla humana.
Uno de los autores del artículo, Nicholas Carlini, dio a conocer su trabajo a través de su sitio web en una publicación que incluye varios clips de música, explicando que contienen palabras que el oído humano no puede descifrar, a no ser que se se ejecuten a través de un modelo de transcripción especialmente entrenado. Las demostraciones están en inglés, pero es fácil de seguir el proceso con la transcripción que las acompañan.
Lo que es preocupante, es que el estudio afirma que se podrían usar técnicas similares para hacer que dispositivos no seguros hagan todo tipo de cosas no deseadas, cuando se exponen a clips de audio maliciosos.
Si bien, hasta el momento no se presentaron informes de ataques de este tipo basados en la voz, siempre es útil estar al tanto de las áreas donde existen vulnerabilidades, para que se puedan detener antes de que los problemas realmente aparezcan. Gracias a la investigación realizada, estaremos un poco más preparados en caso de que una oleada de comandos maliciosos comience a decirles a nuestros asistentes inteligentes qué hacer, mientras escuchamos nuestra canción favorita.