Skip to main content

Las estafas de ChatGPT se están extendiendo desenfrenadamente

El malware y las estafas para ChatGPT continúan siendo más frecuentes a medida que se expande el interés en el chatbot desarrollado por OpenAI.

Ha habido una serie de casos de malos actores que se aprovechan de la popularidad de ChatGPT desde su introducción en noviembre de 2022. Muchos han estado utilizando interfaces falsas de ChatGPT para estafar a usuarios móviles desprevenidos sin dinero o infectar dispositivos con malware. La amenaza más reciente es una mezcla de ambos, con hackers que apuntan a usuarios de Windows y Android a través de páginas de phishing y con el objetivo de robar sus datos privados, que podrían incluir tarjetas de crédito y otra información bancaria, según Bleeping Computer.

Chat GPT PC Online Redline redirect.

I redirected it to closed.

/chat-gpt-pc.online@OpenAI #cybersecurity #infosec pic.twitter.com/lXY5zUyMBj

— Dominic Alvieri (@AlvieriD) February 12, 2023

El investigador de seguridad Dominic Alvieri observó por primera vez la actividad sospechosa de chat-gpt-pc.online, un dominio que albergaba un malware de robo de información llamado Redline, que se hacía pasar por una descarga de escritorio de ChatGPT para Windows. El sitio web, que presentaba la marca ChatGPT, se anunciaba en una página de Facebook como un enlace legítimo de OpenAI para persuadir a las personas a acceder al nefasto sitio.

Alvieri descubrió que también había aplicaciones falsas de ChatGPT en Google Play y varias otras tiendas de aplicaciones de Android de terceros, que podrían enviar malware a los dispositivos si se descargan.

Otros investigadores han respaldado las afirmaciones iniciales, habiendo encontrado otro malware que ejecuta diferentes campañas maliciosas. Los investigadores de Cyble descubrieron chatgpt-go.online, que envía malware que «roba contenido del portapapeles», incluido el ladrón Aurora. Otro dominio llamado chat-gpt-pc[.] en línea envía un malware llamado ladrón Lumma. Otro más llamado openai-pc-pro[.] en línea, malware que aún no ha sido identificado.

Cyble también ha conectado el dominio pay.chatgptftw.com a una página de robo de tarjetas de crédito que se hace pasar por una página de pago para ChatGPT Plus.

Mientras tanto, Cyble dijo que ha descubierto más de 50 aplicaciones móviles dudosas que se hacen pasar por ChatGPT mediante el uso de su marca o un nombre que podría confundir fácilmente a los usuarios. El equipo de investigación dijo que todos han sido determinados falsos y dañinos para los dispositivos. Una es una aplicación llamada chatGPT1, que es una aplicación de fraude de facturación por SMS que probablemente roba información de tarjetas de crédito similar a lo que se describe anteriormente. Otra aplicación es AI Photo, que aloja el malware Spynote que puede acceder y «robar registros de llamadas, listas de contactos, SMS y archivos» de un dispositivo.

La afluencia de malware y estafadores pagados comenzó cuando OpenAI comenzó a limitar las velocidades y el acceso a ChatGPT debido a su creciente popularidad. Las primeras aplicaciones móviles de pago falsas llegaron a las tiendas Apple App y Google Play en diciembre de 202, pero no recibieron atención de los medios hasta casi un mes después, a mediados de enero. El primer hack importante conocido de ChatGPT pronto siguió a mediados de febrero. Los malos actores utilizaron la API OpenAI GPT-3 para crear una versión oscura de ChatGPT que es capaz de generar correos electrónicos de phishing y scripts de malware. Los bots funcionan a través de la aplicación de mensajería Telegram.

Ahora, parece ser temporada abierta para falsificaciones y alternativas desde que OpenAI introdujo su nivel pagado ChatGPT Plus por $ 20 por mes a partir del 10 de febrero. Sin embargo, los usuarios deben tener cuidado de que el chatbot siga siendo una herramienta basada en navegador a la que solo se puede acceder en chat.openai.com. Actualmente no hay aplicaciones móviles o de escritorio disponibles para ChatGPT en ningún sistema.

Recomendaciones del editor

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿ChatGPT está filtrando contraseñas y conversaciones privadas?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Una situación preocupante está detectando en las últimas horas el sitio ArsTechnica, ya que en un informe indica que varios usuarios están entregando pantallazos de errores y filtraciones de datos y contraseñas de ChatGPT.

Un usuario en particular reportó pantallazos que contenían varios pares de nombres de usuario y contraseñas que parecían estar conectados a un sistema de apoyo utilizado por los empleados de un portal de medicamentos recetados de farmacia.

Leer más
Hay una imagen que está destruyendo a ChatGPT
imagen destruye chatgpt

DT
Enviar imágenes como indicaciones a ChatGPT sigue siendo una característica bastante nueva, pero en mis propias pruebas, funciona bien la mayor parte del tiempo. Sin embargo, alguien acaba de encontrar una imagen que ChatGPT parece no poder manejar, y definitivamente no es lo que esperas.

La imagen, descubierta por brandon_xyzw en X (antes Twitter), presenta algo de ruido digital. No es nada especial, en realidad, solo un fondo negro con algunas líneas verticales por todas partes. Pero si intentas mostrárselo a ChatGPT, la imagen rompe el chatbot todas y cada una de las veces, sin falta.

Leer más
OpenAI lanza nueva suscripción premium grupal para ChatGPT
¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.

Este 10 de enero, OpenAI acaba de informar sobre la puesta en marcha de un nuevo modelo de suscripción para grupos, llamado (no podía ser de otra manera) ChatGPTTeam.

El plan proporciona un espacio de trabajo dedicado para equipos de hasta 149 personas que utilizan ChatGPT, así como herramientas de administración para la gestión de equipos.

Leer más