Tan seguro como la noche sigue al día, los estafadores se han interesado rápidamente en ChatGPT, el chatbot avanzado impulsado por IA de OpenAI respaldado por Microsoft que irrumpió en escena en noviembre.
En un nuevo informe de seguridad publicado por Meta el miércoles, la compañía anteriormente conocida como Facebook dijo que solo desde marzo, sus analistas de seguridad han descubierto alrededor de 10 tipos de malware que se hacen pasar por ChatGPT y herramientas similares basadas en IA que tienen como objetivo comprometer las cuentas en línea, especialmente las de las empresas.
Las estafas podrían entregarse a través de, por ejemplo, extensiones de navegador web, algunas de ellas encontradas en tiendas web oficiales, que ofrecen herramientas relacionadas con ChatGPT e incluso podrían ofrecer alguna funcionalidad similar a ChatGPT, escribió en la publicación Guy Rosen, director de seguridad de la información de Meta. Pero las extensiones están diseñadas en última instancia para engañar a los usuarios para que entreguen información confidencial o acepten cargas maliciosas.
El director de seguridad de la información de Meta dijo que su equipo ha visto malware disfrazado de aplicaciones ChatGPT y luego, después de la detección, simplemente cambió sus señuelos a otros productos populares como la herramienta Bard impulsada por IA de Google, en un intento por evitar la detección.
Rosen dijo que Meta había detectado y bloqueado más de 1.000 URL maliciosas únicas para que no se compartieran en sus aplicaciones y las había informado a las compañías donde estaba alojado el malware para permitirles tomar sus propias medidas apropiadas.
Meta prometió que continuará destacando cómo funcionan estas campañas maliciosas, compartirá indicadores de amenazas con las empresas e introducirá protecciones actualizadas para abordar las nuevas tácticas de los estafadores. Parte de sus esfuerzos también incluyen el lanzamiento de un nuevo flujo de soporte para las empresas afectadas por el malware.
Citando el ejemplo de las estafas criptográficas, Rosen señaló cómo el nuevo asalto de los ciberdelincuentes sigue un patrón mediante el cual explotan la popularidad de productos tecnológicos nuevos o bulliciosos para tratar de engañar a usuarios inocentes para que caigan en sus artimañas.
«El espacio generativo de IA está evolucionando rápidamente y los malos actores lo saben, por lo que todos debemos estar atentos», advirtió Rosen.