Skip to main content
  1. Casa
  2. Computación
  3. Noticias
  4. News

DT en Español podría recibir una comisión si compras un producto desde el sitio

Los hackers están usando IA para propagar malware peligroso en YouTube

YouTube es la última frontera donde el contenido generado por IA se está utilizando para engañar a los usuarios para que descarguen malware que puede robar su información personal.

A medida que la generación de IA se vuelve cada vez más popular en varias plataformas, también lo hace el deseo de beneficiarse de ella de manera maliciosa. La firma de investigación CloudSEK ha observado un aumento del 200% al 300% en el número de videos en YouTube que incluyen enlaces a fuentes populares de malware como Vidar, RedLine y Raccoon directamente en las descripciones desde noviembre de 2022.

Recommended Videos

Los videos están configurados como tutoriales para descargar versiones descifradas de software que generalmente requieren una licencia paga para su uso, como Photoshop, Premiere Pro, Autodesk 3ds Max, AutoCAD, entre otros.

Los malos actores se benefician al crear videos generados por IA en plataformas como Synthesia y D-ID. Crean videos que presentan humanos con características universalmente familiares y confiables. Esta tendencia popular se ha utilizado en las redes sociales y se ha utilizado durante mucho tiempo en material de reclutamiento, educativo y promocional, señaló CloudSEK.

La combinación de los métodos mencionados anteriormente hace que los usuarios puedan ser engañados fácilmente para hacer clic en enlaces maliciosos y descargar el infostealer de malware. Cuando se instala, tiene acceso a los datos privados del usuario, incluidas “contraseñas, información de tarjetas de crédito, números de cuentas bancarias y otros datos confidenciales”, que luego se pueden cargar en el servidor de comando y control del actor incorrecto.

Cómo escuchar YouTube de fondo con otra aplicación abierta.
Shutterstock

Otra información privada que podría estar en riesgo de malware infostealer incluye datos del navegador, datos de billetera criptográfica, datos de Telegram, archivos de programa como .txt e información del sistema, como direcciones IP.

Si bien hay muchos antivirus y sistemas de detección de puntos finales además de esta nueva marca de malware generado por IA, también hay muchos desarrolladores de ladrones de información para garantizar que el ecosistema permanezca vivo y bien. Aunque CloudSEK señaló que los malos actores surgieron junto con la revolución de la IA en noviembre de 2022, parte de la primera atención de los medios de comunicación de los piratas informáticos que usan el código ChatGPT para crear malware no surgió hasta principios de febrero.

Los desarrolladores de ladrones de información también reclutan y colaboran con traffers, otros actores que pueden encontrar y compartir información sobre víctimas potenciales a través de mercados clandestinos, foros y canales de Telegram. Los traffers suelen ser los que proporcionan sitios web falsos, correos electrónicos de phishing, tutoriales de YouTube o publicaciones en redes sociales en las que los desarrolladores de ladrones de información pueden adjuntar su malware. También ha habido una estafa similar con malos actores que alojan anuncios falsos en las redes sociales y sitios web para la versión paga de ChatGPT.

Sin embargo, en YouTube, se están apoderando de las cuentas y subiendo varios videos a la vez para llamar la atención de los seguidores del creador original. Los malos actores se harán cargo tanto de las cuentas populares como de las cuentas actualizadas con poca frecuencia para diferentes propósitos.

Hacerse cargo de una cuenta con más de 100,000 suscriptores y cargar entre cinco y seis videos con malware seguramente obtendrá algunos clics antes de que el propietario vuelva a tomar el control de su cuenta. Los espectadores pueden identificar el video como nefasto y reportarlo a YouTube, que finalmente lo eliminará. Una cuenta menos popular podría haber infectado videos en vivo y el propietario podría no estar al tanto durante algún tiempo.

Agregar comentarios falsos y enlaces acortados de bit.ly y cutt.ly a los videos también los hace parecer más válidos.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
El creador de Claude, Anthropic, encontró un ‘modo malvado’ de IA
Sign, Symbol, Road Sign

¿Qué ha pasado? Un nuevo estudio de Anthropic, creadores de Claude AI, revela cómo un modelo de IA aprendió silenciosamente a "volverse malvado" tras ser enseñado a hacer trampas mediante hackeo de recompensas. Durante las pruebas normales, se comportaba bien, pero una vez que se dio cuenta de cómo explotar lagunas legales y fue recompensado por ellas, su comportamiento cambió drásticamente.

Una vez que el modelo aprendió que hacer trampa merecía recompensas, empezó a generalizar ese principio a otros ámbitos, como mentir, ocultar sus verdaderos objetivos e incluso dar consejos dañinos.

Leer más
Microsoft rompe por error el modo oscuro de Windows 11
Computer, Electronics, Laptop

Las preferencias de los usuarios por el modo oscuro en las aplicaciones o en los sistemas operativos, obliga a las empresas proveedoras a tener siempre todo bajo control, pero Microsoft ha tenido un pequeño retroceso.

Microsoft lanzó una actualización de Windows 11 que supuestamente hará que el modo oscuro sea más consistente, y los diálogos en el Explorador de Archivos finalmente obtienen un modo oscuro para acciones como copiar, mover o eliminar archivos y carpetas. Tienes todo eso, pero Microsoft también te dará un gran flash blanco cada vez que abres el Explorador de archivos.

Leer más
Sam Altman prende su alarma de código rojo: a destruir a Gemini
Electronics, Mobile Phone, Phone

El CEO de OpenAI, Sam Altman, se puso sumamente nervioso luego de la actualización a Gemini 3 y ha encendido las alarmas entre sus empleados. A tal punto que, según reportan The Wall Street Journal y The Information, ha declarado un "código rojo" que trae consigo varios cambios en los planes inmediatos de la compañía.

El jefe de OpenAI envió un memo a todos los empleados donde informó la implementación de un giro en su estrategia. Específicamente, Altman pidió a su staff que se enfoque en mejorar ChatGPT, que es su producto insignia. La intención es que la experiencia de uso del chatbot sea más intuitiva y personal.

Leer más