YouTube es la última frontera donde el contenido generado por IA se está utilizando para engañar a los usuarios para que descarguen malware que puede robar su información personal.
A medida que la generación de IA se vuelve cada vez más popular en varias plataformas, también lo hace el deseo de beneficiarse de ella de manera maliciosa. La firma de investigación CloudSEK ha observado un aumento del 200% al 300% en el número de videos en YouTube que incluyen enlaces a fuentes populares de malware como Vidar, RedLine y Raccoon directamente en las descripciones desde noviembre de 2022.
Los videos están configurados como tutoriales para descargar versiones descifradas de software que generalmente requieren una licencia paga para su uso, como Photoshop, Premiere Pro, Autodesk 3ds Max, AutoCAD, entre otros.
Los malos actores se benefician al crear videos generados por IA en plataformas como Synthesia y D-ID. Crean videos que presentan humanos con características universalmente familiares y confiables. Esta tendencia popular se ha utilizado en las redes sociales y se ha utilizado durante mucho tiempo en material de reclutamiento, educativo y promocional, señaló CloudSEK.
La combinación de los métodos mencionados anteriormente hace que los usuarios puedan ser engañados fácilmente para hacer clic en enlaces maliciosos y descargar el infostealer de malware. Cuando se instala, tiene acceso a los datos privados del usuario, incluidas «contraseñas, información de tarjetas de crédito, números de cuentas bancarias y otros datos confidenciales», que luego se pueden cargar en el servidor de comando y control del actor incorrecto.
Otra información privada que podría estar en riesgo de malware infostealer incluye datos del navegador, datos de billetera criptográfica, datos de Telegram, archivos de programa como .txt e información del sistema, como direcciones IP.
Si bien hay muchos antivirus y sistemas de detección de puntos finales además de esta nueva marca de malware generado por IA, también hay muchos desarrolladores de ladrones de información para garantizar que el ecosistema permanezca vivo y bien. Aunque CloudSEK señaló que los malos actores surgieron junto con la revolución de la IA en noviembre de 2022, parte de la primera atención de los medios de comunicación de los piratas informáticos que usan el código ChatGPT para crear malware no surgió hasta principios de febrero.
Los desarrolladores de ladrones de información también reclutan y colaboran con traffers, otros actores que pueden encontrar y compartir información sobre víctimas potenciales a través de mercados clandestinos, foros y canales de Telegram. Los traffers suelen ser los que proporcionan sitios web falsos, correos electrónicos de phishing, tutoriales de YouTube o publicaciones en redes sociales en las que los desarrolladores de ladrones de información pueden adjuntar su malware. También ha habido una estafa similar con malos actores que alojan anuncios falsos en las redes sociales y sitios web para la versión paga de ChatGPT.
Sin embargo, en YouTube, se están apoderando de las cuentas y subiendo varios videos a la vez para llamar la atención de los seguidores del creador original. Los malos actores se harán cargo tanto de las cuentas populares como de las cuentas actualizadas con poca frecuencia para diferentes propósitos.
Hacerse cargo de una cuenta con más de 100,000 suscriptores y cargar entre cinco y seis videos con malware seguramente obtendrá algunos clics antes de que el propietario vuelva a tomar el control de su cuenta. Los espectadores pueden identificar el video como nefasto y reportarlo a YouTube, que finalmente lo eliminará. Una cuenta menos popular podría haber infectado videos en vivo y el propietario podría no estar al tanto durante algún tiempo.
Agregar comentarios falsos y enlaces acortados de bit.ly y cutt.ly a los videos también los hace parecer más válidos.