ChatGPT ha sido una invención polarizadora, con respuestas al chatbot de inteligencia artificial (IA) oscilando entre la emoción y el miedo. Ahora, una nueva encuesta muestra que la desilusión con ChatGPT podría estar alcanzando nuevos máximos.
Según una encuesta de la firma de seguridad Malwarebytes, el 81% de sus encuestados están preocupados por los riesgos de seguridad y protección que plantea ChatGPT. Es un hallazgo notable y sugiere que las personas están cada vez más preocupadas por los actos nefastos que el chatbot de OpenAI aparentemente es capaz de lograr.
Malwarebytes pidió a sus suscriptores del boletín que respondieran a la frase «Estoy preocupado por los posibles riesgos de seguridad y / o protección planteados por ChatGPT», un sentimiento con el que el 81% estuvo de acuerdo. Además, el 51% no estuvo de acuerdo con la afirmación «ChatGPT y otras herramientas de IA mejorarán la seguridad en Internet», mientras que solo el 7% estuvo de acuerdo, lo que sugiere que existe una preocupación generalizada sobre el impacto que ChatGPT tendrá en la seguridad en línea.
El descontento con los chatbots de IA no se limitó a problemas de seguridad. Solo el 12% de las personas encuestadas estuvo de acuerdo con la frase «La información producida por ChatGPT es precisa», mientras que el 55% de las personas no estuvo de acuerdo. Hasta el 63% de las personas no confiaban en las respuestas de ChatGPT, y solo el 10% las consideraba confiables.
Generación de malware
Este tipo de respuesta no es del todo sorprendente, dada la avalancha de malos actos de alto perfil para los que se ha utilizado ChatGPT en los últimos meses. Hemos visto casos de implementación para todo tipo de actos cuestionables, desde escribir malware hasta presentar a los usuarios claves gratuitas de Windows 11.
En mayo de 2023, hablamos con varios expertos en seguridad sobre las amenazas planteadas por ChatGPT. Según Martin Zugec, Director de Soluciones Técnicas de Bitdefender, «la calidad del código de malware producido por los chatbots tiende a ser baja, lo que lo convierte en una opción menos atractiva para los creadores de malware experimentados que pueden encontrar mejores ejemplos en repositorios de código público».
Aún así, eso no ha frenado la ansiedad pública sobre lo que ChatGPT podría usarse para hacer. Está claro que a la gente le preocupa que incluso los escritores de malware novatos puedan encargar a los chatbots de IA que sueñen con un virus devastador o una pieza irrompible de ransomware, incluso si algunos expertos en seguridad consideran que es poco probable.
Pausa en el desarrollo
Entonces, ¿qué se puede hacer? Cuando Malwarebytes preguntó a sus lectores qué pensaban sobre la afirmación «El trabajo en ChatGPT y otras herramientas de IA debería detenerse hasta que las regulaciones puedan ponerse al día», el 52% estuvo de acuerdo, mientras que un poco menos del 24% no estuvo de acuerdo.
Este llamado del público se une a varias cartas abiertas de destacados líderes tecnológicos para pausar el desarrollo de chatbots de IA debido a sus «riesgos a gran escala». Tal vez es hora de que los responsables de la toma de decisiones comiencen a prestar atención.