Europol emitió esta semana una severa advertencia destacando los riesgos planteados por los delincuentes a medida que se familiarizan con la nueva ola de chatbots avanzados de IA.
En una publicación compartida en línea esta semana, la agencia de aplicación de la ley de Europa describió cómo herramientas como ChatGPT y GPT-4 de OpenAI, y Bard de Google, serán cada vez más utilizadas por delincuentes que buscan nuevas formas de estafar a los miembros del público.
Identificó tres áreas específicas que más le preocupan.
En primer lugar está el fraude y la ingeniería social, donde se envían correos electrónicos a los objetivos con la esperanza de que descarguen un archivo infectado con malware o hagan clic en un enlace que los lleve a un sitio web igualmente peligroso.
Los correos electrónicos de phishing, como se les conoce, generalmente están llenos de errores gramaticales y ortográficos y terminan en la carpeta de correo no deseado. Incluso aquellos que llegan a la bandeja de entrada están escritos de manera tan terrible que el destinatario puede descartarlos rápidamente sin pensarlo dos veces.
Pero los chatbots de IA pueden crear mensajes bien escritos y libres de errores descuidados, lo que permite a los delincuentes enviar correos electrónicos convincentes que significan que los destinatarios tendrán que prestar atención adicional al revisar sus mensajes.
Europol dijo que los chatbots avanzados pueden «reproducir patrones de lenguaje que pueden usarse para hacerse pasar por el estilo de habla de individuos o grupos específicos», y agregó que tal capacidad puede ser «abusada a escala para engañar a las víctimas potenciales para que depositen su confianza en manos de actores criminales».
También proliferará una forma más convincente de desinformación, con la nueva ola de chatbots sobresaliendo en la creación de texto que suena auténtico a velocidad y escala, dijo Europol, y agregó: «Esto hace que el modelo sea ideal para fines de propaganda y desinformación, ya que permite a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo».
En tercer lugar, Europol citó la codificación como una nueva área que está siendo aprovechada por los ciberdelincuentes para crear software malicioso. «Además de generar un lenguaje similar al humano, ChatGPT es capaz de producir código en varios lenguajes de programación diferentes», señaló la agencia. «Para un criminal potencial con poco conocimiento técnico, este es un recurso invaluable para producir código malicioso».
Dijo que la situación «proporciona una perspectiva sombría» para aquellos en el lado correcto de la ley a medida que la actividad nefasta en línea se vuelve más difícil de detectar.
La locura del chatbot de IA despegó en noviembre de 2022 cuando OpenAI, respaldado por Microsoft, lanzó su impresionante herramienta ChatGPT. Una versión mejorada, GPT-4, fue lanzada recientemente, mientras que Google también ha presentado su propia herramienta similar, llamada Bard. Los tres se caracterizan por su impresionante capacidad para crear texto que suena natural con solo unas pocas indicaciones, y es probable que la tecnología ayude o incluso reemplace una gran cantidad de trabajos diferentes en los próximos años.
Otra tecnología similar basada en IA le permite crear imágenes, videos y audio originales con solo unas pocas indicaciones de texto, destacando cómo ninguna forma de medio escapará al impacto de la IA a medida que la tecnología continúe mejorando.
Algunas voces líderes tienen preocupaciones comprensibles sobre su rápido ascenso, con una reciente carta abierta firmada por Elon Musk, el cofundador de Apple Steve Wozniak y varios expertos que afirman que los sistemas de IA con inteligencia competitiva humana pueden plantear «profundos riesgos para la sociedad y la humanidad». La carta pedía una pausa de seis meses para permitir la creación e implementación de protocolos de seguridad para las herramientas avanzadas, y agregó que si se maneja de la manera correcta, «la humanidad puede disfrutar de un futuro floreciente con IA».