El FBI ha advertido que los hackers se están volviendo locos con herramientas generativas de inteligencia artificial (IA) como ChatGPT, creando rápidamente código malicioso y lanzando olas de delitos cibernéticos que habrían requerido mucho más esfuerzo en el pasado.
El FBI detalló sus preocupaciones en una llamada con periodistas y explicó que los chatbots de IA han alimentado todo tipo de actividades ilícitas, desde estafadores y estafadores que perfeccionan sus técnicas hasta terroristas que consultan las herramientas sobre cómo lanzar ataques químicos más dañinos.
Según un alto funcionario del FBI (a través de Tom’s Hardware), «esperamos que con el tiempo a medida que continúe la adopción y democratización de los modelos de IA, estas tendencias aumenten». Los malos actores están utilizando la IA para complementar sus actividades delictivas regulares, continuaron, incluido el uso de generadores de voz de IA para hacerse pasar por personas de confianza con el fin de estafar a sus seres queridos o ancianos.
No es la primera vez que vemos a hackers tomar herramientas como ChatGPT y torcerlas para crear malware peligroso. En febrero de 2023, investigadores de la firma de seguridad Checkpoint descubrieron que los actores maliciosos habían podido alterar la API de un chatbot, permitiéndole generar código de malware y poniendo la creación de virus al alcance de casi cualquier posible hacker.
¿Es ChatGPT una amenaza para la seguridad?
El FBI adopta una postura muy diferente de algunos de los expertos cibernéticos con los que hablamos en mayo de 2023. Nos dijeron que la amenaza de los chatbots de IA ha sido exagerada en gran medida, y la mayoría de los hackers encuentran mejores exploits de código a partir de fugas de datos más tradicionales e investigación de código abierto.
Por ejemplo, Martin Zugec, Director de Soluciones Técnicas de Bitdefender, explicó que «es probable que la mayoría de los creadores de malware novatos no posean las habilidades necesarias» para eludir las barreras antimalware de los chatbots. Además de eso, explicó Zugec, «la calidad del código de malware producido por los chatbots tiende a ser baja».
Eso ofrece un contrapunto a las afirmaciones del FBI, y tendremos que ver qué lado demuestra ser correcto. Pero con el fabricante de ChatGPT, OpenAI, descontinuando su propia herramienta diseñada para detectar el plagio generado por chatbot, las noticias no han sido alentadoras últimamente. Si el FBI tiene razón, podría haber tiempos difíciles en la batalla contra los hackers y sus intentos de malware alimentado por chatbot.