Skip to main content

El 81% piensa que ChatGPT es un riesgo para la seguridad

ChatGPT ha sido una invención polarizadora, con respuestas al chatbot de inteligencia artificial (IA) oscilando entre la emoción y el miedo. Ahora, una nueva encuesta muestra que la desilusión con ChatGPT podría estar alcanzando nuevos máximos.

Según una encuesta de la firma de seguridad Malwarebytes, el 81% de sus encuestados están preocupados por los riesgos de seguridad y protección que plantea ChatGPT. Es un hallazgo notable y sugiere que las personas están cada vez más preocupadas por los actos nefastos que el chatbot de OpenAI aparentemente es capaz de lograr.

Una pantalla de computadora portátil muestra la página de inicio de ChatGPT, el chatbot de inteligencia artificial de OpenAI.
Rolf van Root / Unsplash

Malwarebytes pidió a sus suscriptores del boletín que respondieran a la frase «Estoy preocupado por los posibles riesgos de seguridad y / o protección planteados por ChatGPT», un sentimiento con el que el 81% estuvo de acuerdo. Además, el 51% no estuvo de acuerdo con la afirmación «ChatGPT y otras herramientas de IA mejorarán la seguridad en Internet», mientras que solo el 7% estuvo de acuerdo, lo que sugiere que existe una preocupación generalizada sobre el impacto que ChatGPT tendrá en la seguridad en línea.

Recommended Videos

El descontento con los chatbots de IA no se limitó a problemas de seguridad. Solo el 12% de las personas encuestadas estuvo de acuerdo con la frase «La información producida por ChatGPT es precisa», mientras que el 55% de las personas no estuvo de acuerdo. Hasta el 63% de las personas no confiaban en las respuestas de ChatGPT, y solo el 10% las consideraba confiables.

Generación de malware

Una persona que usa una computadora portátil con un conjunto de código visto en la pantalla.
Sora Shimazaki / Pexels

Este tipo de respuesta no es del todo sorprendente, dada la avalancha de malos actos de alto perfil para los que se ha utilizado ChatGPT en los últimos meses. Hemos visto casos de implementación para todo tipo de actos cuestionables, desde escribir malware hasta presentar a los usuarios claves gratuitas de Windows 11.

En mayo de 2023, hablamos con varios expertos en seguridad sobre las amenazas planteadas por ChatGPT. Según Martin Zugec, Director de Soluciones Técnicas de Bitdefender, «la calidad del código de malware producido por los chatbots tiende a ser baja, lo que lo convierte en una opción menos atractiva para los creadores de malware experimentados que pueden encontrar mejores ejemplos en repositorios de código público».

Aún así, eso no ha frenado la ansiedad pública sobre lo que ChatGPT podría usarse para hacer. Está claro que a la gente le preocupa que incluso los escritores de malware novatos puedan encargar a los chatbots de IA que sueñen con un virus devastador o una pieza irrompible de ransomware, incluso si algunos expertos en seguridad consideran que es poco probable.

Pausa en el desarrollo

Una persona se sienta frente a una computadora portátil. En la pantalla de la computadora portátil está la página de inicio del chatbot de inteligencia artificial ChatGPT de OpenAI.
Viralyft / Unsplash

Entonces, ¿qué se puede hacer? Cuando Malwarebytes preguntó a sus lectores qué pensaban sobre la afirmación «El trabajo en ChatGPT y otras herramientas de IA debería detenerse hasta que las regulaciones puedan ponerse al día», el 52% estuvo de acuerdo, mientras que un poco menos del 24% no estuvo de acuerdo.

Este llamado del público se une a varias cartas abiertas de destacados líderes tecnológicos para pausar el desarrollo de chatbots de IA debido a sus «riesgos a gran escala». Tal vez es hora de que los responsables de la toma de decisiones comiencen a prestar atención.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del usuario al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más
o1: OpenAI sube otro peldaño con IA que piensa de manera más compleja
o1 openai pensamiento complejo

Catherine Brownstein: OpenAI o1 & Genetics

Un nuevo escalón evolutivo acaba de subir OpenAI en su carrera por encontrar el modelo perfecto de IA, ya que este 12 de septiembre presentó o1, un sistema que se integrará a ChatGPT y está pensado para dar respuestas más complejas a preguntas más difíciles, específicamente ideado para campos laborales, de estudio y empresas.

Leer más
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más