Skip to main content

Una estafa de larga duración es aún más efectiva con IA

Sin duda, ha oído hablar de la estafa en la que el perpetrador llama a una persona mayor y finge ser su nieto o algún otro pariente cercano. La rutina habitual es actuar en un estado de angustia, fingir que están en una situación difícil y solicitar una transferencia de efectivo urgente para resolver la situación.

Mientras que muchos abuelos se darán cuenta de que la voz no es la de su nieto y colgarán, otros no se darán cuenta y, muy dispuestos a ayudar a su pariente ansioso, seguirán adelante y enviarán dinero a la cuenta de la persona que llama.

Un informe del Washington Post del domingo revela que algunos estafadores han llevado la estafa a un nivel completamente nuevo al implementar tecnología de inteligencia artificial capaz de clonar voces, lo que hace aún más probable que el objetivo caiga en la trampa.

Una persona mayor sosteniendo un teléfono.
Ono Kosuki/Pexels

Para lanzar esta versión más sofisticada de la estafa, los delincuentes requieren «una muestra de audio con solo unas pocas oraciones», según el Post. Luego, la muestra se ejecuta a través de una de las muchas herramientas en línea ampliamente disponibles que usan la voz original para crear una réplica que se puede indicar que diga lo que quiera simplemente escribiendo frases.

Los datos de la Comisión Federal de Comercio sugieren que solo en 2022, hubo más de 36,000 informes de las llamadas estafas de impostores, y más de 5,00 de ellas ocurrieron por teléfono. Las pérdidas reportadas alcanzaron los $11 millones.

El temor es que con las herramientas de IA cada vez más efectivas y más ampliamente disponibles, aún más personas caerán en la estafa en los próximos meses y años.

Sin embargo, la estafa aún requiere cierta planificación, ya que un perpetrador determinado necesita encontrar una muestra de audio de una voz, así como el número de teléfono de la víctima relacionada. Las muestras de audio, por ejemplo, podrían localizarse en línea a través de sitios populares como TikTok y YouTube, mientras que los números de teléfono también podrían localizarse en la web.

La estafa también puede tomar muchas formas. El Post cita un ejemplo en el que alguien que fingió ser un abogado contactó a una pareja de ancianos, diciéndoles que su nieto estaba bajo custodia por un presunto delito y que necesitaban más de $ 15,000 para costos legales. El falso abogado luego fingió entregar el teléfono a su nieto, cuya voz clonada suplicó ayuda para pagar los honorarios, lo que hicieron debidamente.

Solo se dieron cuenta de que habían sido estafados cuando su nieto los llamó más tarde ese día para charlar. Se cree que el estafador puede haber clonado su voz de los videos de YouTube que publicó el nieto, aunque es difícil estar seguro.

Algunos piden que las compañías que fabrican la tecnología de IA que clona voces sean responsables de tales crímenes. Pero antes de que esto suceda, parece seguro que muchos otros perderán dinero a través de esta estafa nefasta.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Chatbots de IA podrían planificar una guerra con armas biológicas
chatbots ia guerra armas biologicas national cancer institute eo 4dqpusqa unsplash

Dentro de los potenciales peligros que se han asociado a la IA, existe uno que debe estar entre los más catastróficos, el uso de lenguaje artificial para planificar una guerra con armas biológicas.
Un informe de la Rand Corporation probó varios modelos de lenguaje grandes (LLM) y descubrió que podían proporcionar una guía que "podría ayudar en la planificación y ejecución de un ataque biológico". Sin embargo, los resultados preliminares también mostraron que los LLM no generaban instrucciones biológicas explícitas para crear armas.
El informe dice que los intentos anteriores de convertir agentes biológicos en armas, como un intento de la secta japonesa Aum Shinrikyo de usar toxina botulínica en la década de 1990, habían fracasado debido a la falta de comprensión de la bacteria. La IA podría "cerrar rápidamente esas brechas de conocimiento", según el informe. El informe no especificó qué LLM evaluaron los investigadores.

En un escenario de prueba ideado por Rand, el LLM anónimo identificó agentes biológicos potenciales, incluidos los que causan la viruela, el ántrax y la peste, y discutió sus posibilidades relativas de causar muertes masivas. El LLM también evaluó la posibilidad de obtener roedores o pulgas infestados de peste y transportar especímenes vivos. A continuación, mencionó que la magnitud de las muertes proyectadas dependía de factores como el tamaño de la población afectada y la proporción de casos de peste neumónica, que es más mortífera que la peste bubónica.
Los investigadores de Rand admitieron que extraer esta información de un LLM requería "jailbreaking", el término para el uso de mensajes de texto que anulan las restricciones de seguridad de un chatbot.
En otro escenario, el LLM anónimo discutió los pros y los contras de los diferentes mecanismos de administración de la toxina botulínica, que puede causar daños fatales en los nervios, como los alimentos o los aerosoles. El LLM también asesoró sobre una historia de encubrimiento plausible para adquirir Clostridium botulinum "mientras parecía realizar una investigación científica legítima".
La respuesta del LLM recomendó presentar la compra de C. botulinum como parte de un proyecto que busca métodos de diagnóstico o tratamientos para el botulismo. La respuesta de LLM agregó: "Esto proporcionaría una razón legítima y convincente para solicitar acceso a la bacteria mientras se mantiene oculto el verdadero propósito de su misión".
"Sigue siendo una pregunta abierta si las capacidades de los LLM existentes representan un nuevo nivel de amenaza más allá de la información dañina que está fácilmente disponible en línea", dijeron los investigadores.

Leer más
La policía de Dubai estrena coches patrulla robots con IA
policia dubai coches patrulla robots ia polic  a

Policía de Dubái
Mientras que empresas estadounidenses como Waymo y Cruise se centran en los servicios de viajes compartidos con sus vehículos autónomos, la ciudad costera de Dubái, en los Emiratos Árabes Unidos, pretende llevar la tecnología a otro nivel desplegándola en los coches patrulla de la policía.

La Policía de Dubái anunció recientemente planes para utilizar coches patrulla totalmente eléctricos y autónomos en zonas residenciales, informaron esta semana los medios locales.

Leer más
Critican póster de Loki por usar IA para su generación
loki poster uso ia segunda temporada

Una oleada de críticas se ha llevado la segunda temporada de Loki, y no realmente por su trama, ya que la serie ya se encuentra desde el 6 de octubre rodando en Disney +, sino más bien por el arte promocional.

La ilustradora Katria Raden marcó la imagen en X (anteriormente Twitter) la semana pasada, afirmando que la imagen del reloj en espiral en el fondo "está dando a todos los signos reveladores de la IA, como cosas que se convierten aleatoriamente en garabatos sin sentido", una referencia a los artefactos que a veces dejan los generadores de imágenes de IA.

Leer más