Skip to main content

Temen que ChatGPT pronto se utilice en ciberataques devastadores

ChatGPT ha tomado al mundo por sorpresa en los últimos meses, pero así como ha sorprendido a la gente con sus capacidades técnicas, también se han planteado preocupaciones sobre su posible mal uso. Ahora, parece que algunos líderes de TI están preocupados de que pronto se utilice en grandes ataques cibernéticos, con el potencial de causar devastación en el futuro.

En una encuesta realizada por BlackBerry a 1.500 profesionales de TI y ciberseguridad, el 51% de los encuestados cree que ChatGPT será responsable de un ciberataque exitoso en los próximos 12 meses. Hasta el 78% siente que el ataque ocurrirá dentro de dos años, mientras que un puñado piensa que podría suceder en los próximos meses.

El nombre de ChatGPT junto a un logotipo de OpenAI sobre un fondo en blanco y negro.

Y no son solo los hackers deshonestos o las bandas de malware los que los encuestados creen que serán responsables. Hasta el 71% considera que los estados-nación ya podrían estar poniendo a ChatGPT a trabajar en tareas maliciosas.

Cuando se trata de cómo se utilizará exactamente ChatGPT para ayudar a estimular los ataques cibernéticos, el 53% de las personas dijo que ayudaría a los piratas informáticos a crear correos electrónicos de phishing más creíbles, mientras que el 49% señaló su capacidad para ayudar a los piratas informáticos a mejorar sus habilidades de codificación.

Además de eso, el 49% también cree que ChatGPT se utilizará para difundir información errónea y desinformación, y el 48% piensa que podría usarse para crear cepas de malware completamente nuevas. Un poco por debajo de eso, el 46% de los encuestados dijo que ChatGPT podría ayudar a mejorar los ataques existentes.

Ya hemos visto una amplia gama de usos impresionantes para herramientas de IA como esta, desde escribir novelas hasta componer música. Sin embargo, esas mismas habilidades que ayudan a ChatGPT a crear oraciones creíbles también podrían usarse para tejer código malicioso. Como indica la encuesta de BlackBerry, eso es una preocupación para mucha gente.

Cambiando el panorama del malware

Malwarebytes portátil

¿Cómo se mantendrán bajo control estas amenazas potenciales? Hasta el 95% de los encuestados argumentó que los gobiernos tienen la obligación de regular la tecnología similar a ChatGPT, y el 85% dijo que el nivel de responsabilidad debería ser «moderado» o «significativo».

Sin embargo, no solo serán los gobiernos los que luchen contra el malware impulsado por ChatGPT: el 82% de los profesionales de TI encuestados ya están planeando defenderse contra este tipo de ataque, y el mismo número dice que había usado herramientas de inteligencia artificial para hacerlo.

A pesar de las terribles perspectivas, ChatGPT (y herramientas similares) tienen mucho potencial para hacer el bien, y tres cuartas partes de los encuestados estuvieron de acuerdo en que se utilizará principalmente para beneficiar a las personas. Pero cuando se trata de malware, herramientas como ChatGPT podrían cambiar completamente el panorama. Queda por ver si inclina la balanza a favor de los atacantes o defensores. Si es lo último, incluso las mejores aplicaciones antivirus podrían tener dificultades para mantenerse al día.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
ChatGPT está violando su privacidad dice la GDPR
ChatGPT

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.
Joe Maring / DT
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Leer más
La aplicación ChatGPT llega para Android, pero hay una trampa
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

La aplicación ChatGPT de OpenAI ya está disponible para Android, pero no todos pueden obtenerla de inmediato.

EE.UU., India, Brasil y Bangladesh pueden descargar la aplicación desde Google Play Store, y se agregarán "países adicionales" "durante la próxima semana", dijo OpenAI.

Leer más
OpenAI ha renunciado a tratar de detectar el plagio de ChatGPT
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

OpenAI, el creador del popular chatbot de inteligencia artificial (IA) ChatGPT, ha cerrado la herramienta que desarrolló para detectar contenido creado por IA en lugar de humanos. La herramienta, denominada AI Classifier, se ha cerrado solo seis meses después de su lanzamiento debido a su "baja tasa de precisión", dijo OpenAI.

Desde que ChatGPT y los servicios rivales se han disparado en popularidad, ha habido un retroceso concertado de varios grupos preocupados por las consecuencias del uso no controlado de la IA. Por un lado, los educadores han estado particularmente preocupados por la posibilidad de que los estudiantes usen ChatGPT para escribir sus ensayos y tareas, y luego hacerlos pasar como propios.
Rolf van Root / Unsplash
El clasificador de IA de OpenAI fue un intento de disipar los temores de estos y otros grupos. La idea era que pudiera determinar si un fragmento de texto fue escrito por un humano o un chatbot de IA, dando a las personas una herramienta para evaluar a los estudiantes de manera justa y combatir la desinformación.

Leer más