Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

Hackers están usando IA para crear malware vicioso, dice el FBI

El FBI ha advertido que los hackers se están volviendo locos con herramientas generativas de inteligencia artificial (IA) como ChatGPT, creando rápidamente código malicioso y lanzando olas de delitos cibernéticos que habrían requerido mucho más esfuerzo en el pasado.

El FBI detalló sus preocupaciones en una llamada con periodistas y explicó que los chatbots de IA han alimentado todo tipo de actividades ilícitas, desde estafadores y estafadores que perfeccionan sus técnicas hasta terroristas que consultan las herramientas sobre cómo lanzar ataques químicos más dañinos.

Un hacker escribiendo en una computadora portátil Apple MacBook mientras sostiene un teléfono. Ambos dispositivos muestran código en sus pantallas.
Sora Shimazaki / Pexels

Según un alto funcionario del FBI (a través de Tom’s Hardware), «esperamos que con el tiempo a medida que continúe la adopción y democratización de los modelos de IA, estas tendencias aumenten». Los malos actores están utilizando la IA para complementar sus actividades delictivas regulares, continuaron, incluido el uso de generadores de voz de IA para hacerse pasar por personas de confianza con el fin de estafar a sus seres queridos o ancianos.

Recommended Videos

No es la primera vez que vemos a hackers tomar herramientas como ChatGPT y torcerlas para crear malware peligroso. En febrero de 2023, investigadores de la firma de seguridad Checkpoint descubrieron que los actores maliciosos habían podido alterar la API de un chatbot, permitiéndole generar código de malware y poniendo la creación de virus al alcance de casi cualquier posible hacker.

¿Es ChatGPT una amenaza para la seguridad?

Un MacBook Pro en un escritorio con el sitio web de ChatGPT que se muestra en su pantalla.
Hatice Baran / Unsplash

El FBI adopta una postura muy diferente de algunos de los expertos cibernéticos con los que hablamos en mayo de 2023. Nos dijeron que la amenaza de los chatbots de IA ha sido exagerada en gran medida, y la mayoría de los hackers encuentran mejores exploits de código a partir de fugas de datos más tradicionales e investigación de código abierto.

Por ejemplo, Martin Zugec, Director de Soluciones Técnicas de Bitdefender, explicó que «es probable que la mayoría de los creadores de malware novatos no posean las habilidades necesarias» para eludir las barreras antimalware de los chatbots. Además de eso, explicó Zugec, «la calidad del código de malware producido por los chatbots tiende a ser baja».

Eso ofrece un contrapunto a las afirmaciones del FBI, y tendremos que ver qué lado demuestra ser correcto. Pero con el fabricante de ChatGPT, OpenAI, descontinuando su propia herramienta diseñada para detectar el plagio generado por chatbot, las noticias no han sido alentadoras últimamente. Si el FBI tiene razón, podría haber tiempos difíciles en la batalla contra los hackers y sus intentos de malware alimentado por chatbot.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Meta está trabajando en una IA que dice es más potente que GPT-4
Mark Zuckerberg Meta

El propietario de Facebook, Meta, está trabajando en un sistema de inteligencia artificial (IA) que espera sea más poderoso que GPT-4, el modelo de lenguaje grande desarrollado por OpenAI que impulsa ChatGPT Plus. Si tiene éxito, eso podría agregar mucha más competencia al mundo de los chatbots generativos de IA, y potencialmente traer consigo una serie de problemas graves.

Según The Wall Street Journal, Meta apunta a lanzar su nuevo modelo de IA en 2024. Según los informes, la compañía quiere que el nuevo modelo sea "varias veces más poderoso" que Llama 2, la herramienta de inteligencia artificial que lanzó en julio de 2023.
Brett Johnson / Unsplash
Meta planea que el próximo sistema de IA "ayude a otras compañías a crear servicios que produzcan texto, análisis y otros resultados sofisticados", afirma The Wall Street Journal. El entrenamiento para la IA comenzará a principios de 2024, y se espera un lanzamiento oficial en algún momento después de que Google lance su propio modelo de lenguaje grande, denominado Gemini.

Leer más
ChatGPT está violando su privacidad dice la GDPR
ChatGPT

Desde que las primeras herramientas generativas de inteligencia artificial (IA) explotaron en la escena tecnológica, ha habido preguntas sobre dónde obtienen sus datos y si están recolectando sus datos privados para entrenar sus productos. Ahora, el fabricante de ChatGPT, OpenAI, podría estar en problemas exactamente por estas razones.

Según TechCrunch, se ha presentado una queja ante la Oficina Polaca de Protección de Datos Personales alegando que ChatGPT viola una gran cantidad de reglas que se encuentran en el Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Sugiere que la herramienta de OpenAI ha estado recogiendo datos de usuarios en todo tipo de formas cuestionables.
Joe Maring / DT
La queja dice que OpenAI ha violado las reglas del GDPR sobre bases legales, transparencia, equidad, derechos de acceso a datos y privacidad por diseño.

Leer más
El 81% piensa que ChatGPT es un riesgo para la seguridad
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

ChatGPT ha sido una invención polarizadora, con respuestas al chatbot de inteligencia artificial (IA) oscilando entre la emoción y el miedo. Ahora, una nueva encuesta muestra que la desilusión con ChatGPT podría estar alcanzando nuevos máximos.

Según una encuesta de la firma de seguridad Malwarebytes, el 81% de sus encuestados están preocupados por los riesgos de seguridad y protección que plantea ChatGPT. Es un hallazgo notable y sugiere que las personas están cada vez más preocupadas por los actos nefastos que el chatbot de OpenAI aparentemente es capaz de lograr.
Rolf van Root / Unsplash
Malwarebytes pidió a sus suscriptores del boletín que respondieran a la frase "Estoy preocupado por los posibles riesgos de seguridad y / o protección planteados por ChatGPT", un sentimiento con el que el 81% estuvo de acuerdo. Además, el 51% no estuvo de acuerdo con la afirmación "ChatGPT y otras herramientas de IA mejorarán la seguridad en Internet", mientras que solo el 7% estuvo de acuerdo, lo que sugiere que existe una preocupación generalizada sobre el impacto que ChatGPT tendrá en la seguridad en línea.

Leer más