Skip to main content
  1. Casa
  2. Computación
  3. Features

Descubren dos chatbots similares a ChatGPT, pero para realizar fraudes

Un equipo de investigadores en ciberseguridad de Trustwave documentaron la existencia de dos chatbots que funcionan de forma similar a ChatGPT, pero que están específicamente diseñados para crear estafas. 

Estos softwares de modelo de lenguaje son conocidos como WormGPT y FraudGPT y se ofertan en la dark web bajo suscripciones mensuales o anuales, y hasta con la posibilidad de comprar un chatbot personalizado para realizar fraudes en línea. Los precios oscilan entre los $90 y los $200 dólares por una suscripción mensual, entre $500 y $1,000 dólares por una suscripción semestral y entre $800 y $1,700 dólares por un año completo de servicio.

Cómo entrar en la dark web de forma fácil y segura
Adobe Stock

Los expertos detallan que WormGPT y FraudGPT están capacitados para crear mensajes SMS o correos electrónicos fraudulentos, o incluso páginas webs completas para hacer phishing, un tipo de estafa que consiste en engañar a una persona para que proporcione información sensible, como los datos de su tarjeta de crédito. Los creadores de FraudGPT incluso aseguran que su chatbot puede crear malware “indetectable”, código para actividades delictivas, hallar vulnerabilidades en sitios web o hasta servir como una plataforma para practicar técnicas de hackeo.

Recommended Videos

La existencia de ambos chatbots alertó a los investigadores de Trustwave, quienes destacan que aunque ambas plataformas están lejos de ser perfectas, “son una señal clara de que la inteligencia artificial puede convertirse en un arma en manos de cibercriminales”.

De acuerdo con los expertos, FraudGPT se oferta en línea al menos desde julio de 2023. WormGPT incluso ya tiene una versión mejorada llamada WormGPT 2.

Las estafas también pueden realizarse con ChatGPT

ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.
Timon / Adobe Stock

Arthur Erzberger, el analista de Trustwave que encontró los anuncios de WormGPT y FraudGPT, decidió probar si podía obtener resultados similares a los de los chatbots para estafas usando ChatGPT. 

Según cuenta, ChatGPT cuenta con varios candados que impiden obtener esta clase de resultados de botepronto. Sin embargo, al cabo de varios intentos y algo de ingeniería inversa, logró obtener un correo electrónico para phishing similar a uno generado con WormGPT.

El investigador también logró obtener el texto de un SMS fraudulento usando ChatGPT, sin embargo, reconoce que los resultados de FraudGPT fueron más convincentes.

Tras sus pruebas, Erzberger considera que las diferencias entre lo que se puede obtener con WormGPT y ChatGPT no es muy distinto. Y eso no es una buena noticia.

Recientemente, dos académicas del Instituto de Tecnología de Massachusetts (MIT) entrevistaron a 35 de los expertos en inteligencia artificial, quienes señalaron que uno de sus principales temores en torno a esta tecnología es su potencial para desarrollar estafas. WormGPT y FraudGPT engloban esos temores.

“Es fundamental reconocer el riesgo potencial de la inteligencia artificial generativa en manos de cibercriminales”, dice Erzberger.

Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
Topics
Microsoft prepara un aumento sorpresa de precios para Office
¡No los hagas! 7 atajos de teclado que pueden arruinarte el día (o incluso más).

Microsoft ha comunicado su intención de elevar los precios correspondientes a sus soluciones de productividad empresarial a partir del mes de julio del próximo año. Este ajuste afectará específicamente a los paquetes comerciales que integran la suite Office, impactando en suscripciones dirigidas principalmente al segmento corporativo que depende de herramientas colaborativas basadas en la nube.​

La decisión responde, según explica Microsoft, a la incorporación de funcionalidades novedosas y capacidades de inteligencia artificial dentro de sus aplicaciones.

Leer más
El nuevo malware de Android que amenaza al mundo bancario
Cómo eliminar un virus en tu dispositivo Android.

Investigadores de seguridad digital de la empresa Cleafy, han identificado y documentado Albiriox, una nueva familia de malware diseñada específicamente para comprometer dispositivos Android y ejecutar fraude financiero de forma remota. Este software malicioso representa un nivel avanzado de sofisticación, permitiendo a los atacantes obtener control total del dispositivo de la víctima sin necesidad de robar contraseñas.​

El malware Albiriox funciona como un servicio disponible para cualquier ciberdelincuente que desee rentarlo, democratizando el acceso a herramientas de fraude móvil. Una característica particularmente amenazante es su base de datos integrada que contiene información de más de 400 aplicaciones bancarias, plataformas fintech, sistemas de pago y carteras de criptomonedas, lo que permite al malware identificar automáticamente los objetivos presentes en cada dispositivo infectado.

Leer más
Google Gemini causa devastación accidental al borrar disco duro de usuario
Hole, Person, Face

Un incidente que se viralizó recientemente expone vulnerabilidades críticas en los sistemas de inteligencia artificial agentic de Google, específicamente en Gemini cuando se integra con herramientas de codificación. Un programador reportó que tras dejar a Gemini depurando código en el editor Cursor, regresó para encontrar registros perturbadores que revelan cómo la IA entró en un ciclo autodestructivo que resultó en la eliminación de archivos del disco duro del usuario.

​En específico, utilizó Google Antigravity, el Entorno Integrado de Desarrollo (IDE) agente impulsado por IA del gigante de la búsqueda, descubrió que había eliminado toda su unidad D sin su permiso. Según la publicación de tú/Deep-Hyena492 en Reddit y el vídeo posterior de YouTube que compartieron, lo estaban usando para crear una pequeña app cuando ocurrió lo peor.

Leer más