Sin duda, ha oído hablar de la estafa en la que el perpetrador llama a una persona mayor y finge ser su nieto o algún otro pariente cercano. La rutina habitual es actuar en un estado de angustia, fingir que están en una situación difícil y solicitar una transferencia de efectivo urgente para resolver la situación.
Mientras que muchos abuelos se darán cuenta de que la voz no es la de su nieto y colgarán, otros no se darán cuenta y, muy dispuestos a ayudar a su pariente ansioso, seguirán adelante y enviarán dinero a la cuenta de la persona que llama.
Un informe del Washington Post del domingo revela que algunos estafadores han llevado la estafa a un nivel completamente nuevo al implementar tecnología de inteligencia artificial capaz de clonar voces, lo que hace aún más probable que el objetivo caiga en la trampa.
Para lanzar esta versión más sofisticada de la estafa, los delincuentes requieren «una muestra de audio con solo unas pocas oraciones», según el Post. Luego, la muestra se ejecuta a través de una de las muchas herramientas en línea ampliamente disponibles que usan la voz original para crear una réplica que se puede indicar que diga lo que quiera simplemente escribiendo frases.
Los datos de la Comisión Federal de Comercio sugieren que solo en 2022, hubo más de 36,000 informes de las llamadas estafas de impostores, y más de 5,00 de ellas ocurrieron por teléfono. Las pérdidas reportadas alcanzaron los $11 millones.
El temor es que con las herramientas de IA cada vez más efectivas y más ampliamente disponibles, aún más personas caerán en la estafa en los próximos meses y años.
Sin embargo, la estafa aún requiere cierta planificación, ya que un perpetrador determinado necesita encontrar una muestra de audio de una voz, así como el número de teléfono de la víctima relacionada. Las muestras de audio, por ejemplo, podrían localizarse en línea a través de sitios populares como TikTok y YouTube, mientras que los números de teléfono también podrían localizarse en la web.
La estafa también puede tomar muchas formas. El Post cita un ejemplo en el que alguien que fingió ser un abogado contactó a una pareja de ancianos, diciéndoles que su nieto estaba bajo custodia por un presunto delito y que necesitaban más de $ 15,000 para costos legales. El falso abogado luego fingió entregar el teléfono a su nieto, cuya voz clonada suplicó ayuda para pagar los honorarios, lo que hicieron debidamente.
Solo se dieron cuenta de que habían sido estafados cuando su nieto los llamó más tarde ese día para charlar. Se cree que el estafador puede haber clonado su voz de los videos de YouTube que publicó el nieto, aunque es difícil estar seguro.
Algunos piden que las compañías que fabrican la tecnología de IA que clona voces sean responsables de tales crímenes. Pero antes de que esto suceda, parece seguro que muchos otros perderán dinero a través de esta estafa nefasta.