Una situación aterradora y que muestra las implicancias negativas de la inteligencia artificial se vivió en Arizona, Estados Unidos, según relató el New York Post y se trata de lo que vivió la familia DeStefano, luego de que un grupo de delincuentes clonara la voz de su hija para inventar un secuestro y pedir un lucrativo rescate.
Jennifer DeStefano reportó haber recibido la llamada de «su hija» supuestamente secuestrada para inmediatamente pasar el teléfono al secuestrador quien le pidió un millón de dólares para no dañarla. Jennifer declaró que ni por un segundo dudó que fuera la voz de su hija.
En el intento de secuestro de Brie, la hija de DeStefano, además de la extorsión se le sumaron sollozos, gritos y llanto de la supuesta joven, y amenazas por parte del secuestrador de drogarla y dañarla si no se pagaba el rescate, mientras que en el fondo se escuchaba todavía la voz de Brie llorando y pidiendo auxilio.
La familia se dio cuenta de la estafa, luego de contactar a Brie por teléfono y corroborar que estaba bien.
«Al principio, requeriría una mayor cantidad de muestras», explicó Subbarao Kambhampati, profesor de informática y autoridad en IA de la Universidad Estatal de Arizona. «Ahora hay formas en las que puedes hacer esto con solo tres segundos de tu voz. Tres segundos. Y con los tres segundos, puede acercarse a cómo suenas exactamente», agregó. Con un tamaño de muestra lo suficientemente grande, la IA puede imitar la «inflexión» de uno, así como su «emoción», según el profesor.
DeStefano encontró la simulación de voz particularmente inquietante dado que «Brie no tiene ninguna cuenta pública de redes sociales que tenga su voz», según una publicación en el sitio web. «Tiene algunas entrevistas públicas para deportes/escuela que tienen una gran muestra de su voz», describió la madre, quien también comentó que «sin embargo, esto es algo que debe preocupar más a los niños que tienen cuentas (de redes sociales) públicas».