Hasta hace poco los sistemas Captcha eran la forma principal para diferenciar a un humano de un bot en internet, y así permitir solo la presencia de la humanidad en la web.
CAPTCHA son las siglas de Prueba de Turing Pública Completamente Automatizada, diseñada para diferenciar las computadoras de los humanos. El sistema utilizado en el nuevo estudio, reCAPTCHA v2 de Google, pone a prueba a los usuarios pidiéndoles que seleccionen imágenes que contengan objetos como semáforos y cruces peatonales.
Utilizando métodos avanzados de aprendizaje automático, investigadores de la universidad suiza ETH Zurich resolvieron el 100% de los captchas creados por el popular producto reCAPTCHAv2 de Google utilizando un número similar de intentos que los usuarios humanos.
Los resultados, publicados el 13 de septiembre, indican que «las tecnologías actuales de IA pueden explotar los captchas basados en imágenes», escribieron los autores.
«Esto ha estado viniendo por un tiempo», dijo Matthew Green, profesor asociado de ciencias de la computación en el Instituto de Seguridad de la Información Johns Hopkins. «La idea de los captchas era que los humanos son mejores para resolver estos acertijos que las computadoras. Estamos aprendiendo que eso no es cierto».
En respuesta a la capacidad mejorada de los bots para resolver captchas, empresas como Google, que lanzó un producto reCAPTCHA de tercera generación en 2018, están aumentando continuamente la sofisticación de sus productos.
«Los bots se están volviendo cada vez más inteligentes», dijo Sandy Carielli, analista principal de Forrester al sitio Decrypt. «Lo que funcionó hace unas semanas podría no funcionar hoy».
«Las mejores jugadoras están en continua evolución porque tienen que hacerlo», dijo. «La evolución está en los modelos de detección y en dar las respuestas correctas no solo para bloquear a los bots, sino también para hacer que sea tan costoso para los bots que se vayan a otra parte».
Si el CAPTCHA se desvanece, podría haber graves consecuencias para muchos anunciantes y sitios web.
«Es un gran problema para los anunciantes y las personas que operan los servicios si no saben si el 50% de sus usuarios son reales», dijo Green. «El fraude era un gran problema cuando tenías que contratar a personas para hacerlo, y es un problema peor ahora que puedes hacer que la IA haga el fraude por ti».