Un equipo de investigadores en ciberseguridad de Trustwave documentaron la existencia de dos chatbots que funcionan de forma similar a ChatGPT, pero que están específicamente diseñados para crear estafas.
Estos softwares de modelo de lenguaje son conocidos como WormGPT y FraudGPT y se ofertan en la dark web bajo suscripciones mensuales o anuales, y hasta con la posibilidad de comprar un chatbot personalizado para realizar fraudes en línea. Los precios oscilan entre los $90 y los $200 dólares por una suscripción mensual, entre $500 y $1,000 dólares por una suscripción semestral y entre $800 y $1,700 dólares por un año completo de servicio.
Los expertos detallan que WormGPT y FraudGPT están capacitados para crear mensajes SMS o correos electrónicos fraudulentos, o incluso páginas webs completas para hacer phishing, un tipo de estafa que consiste en engañar a una persona para que proporcione información sensible, como los datos de su tarjeta de crédito. Los creadores de FraudGPT incluso aseguran que su chatbot puede crear malware “indetectable”, código para actividades delictivas, hallar vulnerabilidades en sitios web o hasta servir como una plataforma para practicar técnicas de hackeo.
La existencia de ambos chatbots alertó a los investigadores de Trustwave, quienes destacan que aunque ambas plataformas están lejos de ser perfectas, “son una señal clara de que la inteligencia artificial puede convertirse en un arma en manos de cibercriminales”.
De acuerdo con los expertos, FraudGPT se oferta en línea al menos desde julio de 2023. WormGPT incluso ya tiene una versión mejorada llamada WormGPT 2.
Las estafas también pueden realizarse con ChatGPT
Arthur Erzberger, el analista de Trustwave que encontró los anuncios de WormGPT y FraudGPT, decidió probar si podía obtener resultados similares a los de los chatbots para estafas usando ChatGPT.
Según cuenta, ChatGPT cuenta con varios candados que impiden obtener esta clase de resultados de botepronto. Sin embargo, al cabo de varios intentos y algo de ingeniería inversa, logró obtener un correo electrónico para phishing similar a uno generado con WormGPT.
El investigador también logró obtener el texto de un SMS fraudulento usando ChatGPT, sin embargo, reconoce que los resultados de FraudGPT fueron más convincentes.
Tras sus pruebas, Erzberger considera que las diferencias entre lo que se puede obtener con WormGPT y ChatGPT no es muy distinto. Y eso no es una buena noticia.
Recientemente, dos académicas del Instituto de Tecnología de Massachusetts (MIT) entrevistaron a 35 de los expertos en inteligencia artificial, quienes señalaron que uno de sus principales temores en torno a esta tecnología es su potencial para desarrollar estafas. WormGPT y FraudGPT engloban esos temores.
“Es fundamental reconocer el riesgo potencial de la inteligencia artificial generativa en manos de cibercriminales”, dice Erzberger.