Meta emite una advertencia sobre estafas relacionadas con ChatGPT

Tan seguro como la noche sigue al día, los estafadores se han interesado rápidamente en ChatGPT, el chatbot avanzado impulsado por IA de OpenAI respaldado por Microsoft que irrumpió en escena en noviembre.

En un nuevo informe de seguridad publicado por Meta el miércoles, la compañía anteriormente conocida como Facebook dijo que solo desde marzo, sus analistas de seguridad han descubierto alrededor de 10 tipos de malware que se hacen pasar por ChatGPT y herramientas similares basadas en IA que tienen como objetivo comprometer las cuentas en línea, especialmente las de las empresas.

Recommended Videos

Las estafas podrían entregarse a través de, por ejemplo, extensiones de navegador web, algunas de ellas encontradas en tiendas web oficiales, que ofrecen herramientas relacionadas con ChatGPT e incluso podrían ofrecer alguna funcionalidad similar a ChatGPT, escribió en la publicación Guy Rosen, director de seguridad de la información de Meta. Pero las extensiones están diseñadas en última instancia para engañar a los usuarios para que entreguen información confidencial o acepten cargas maliciosas.

El director de seguridad de la información de Meta dijo que su equipo ha visto malware disfrazado de aplicaciones ChatGPT y luego, después de la detección, simplemente cambió sus señuelos a otros productos populares como la herramienta Bard impulsada por IA de Google, en un intento por evitar la detección.

Rosen dijo que Meta había detectado y bloqueado más de 1.000 URL maliciosas únicas para que no se compartieran en sus aplicaciones y las había informado a las compañías donde estaba alojado el malware para permitirles tomar sus propias medidas apropiadas.

Meta prometió que continuará destacando cómo funcionan estas campañas maliciosas, compartirá indicadores de amenazas con las empresas e introducirá protecciones actualizadas para abordar las nuevas tácticas de los estafadores. Parte de sus esfuerzos también incluyen el lanzamiento de un nuevo flujo de soporte para las empresas afectadas por el malware.

Citando el ejemplo de las estafas criptográficas, Rosen señaló cómo el nuevo asalto de los ciberdelincuentes sigue un patrón mediante el cual explotan la popularidad de productos tecnológicos nuevos o bulliciosos para tratar de engañar a usuarios inocentes para que caigan en sus artimañas.

«El espacio generativo de IA está evolucionando rápidamente y los malos actores lo saben, por lo que todos debemos estar atentos», advirtió Rosen.

Recomendaciones del editor

Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Descubren dos chatbots similares a ChatGPT, pero para realizar fraudes

Un equipo de investigadores en ciberseguridad de Trustwave documentaron la existencia de dos chatbots que funcionan de forma similar a ChatGPT, pero que están específicamente diseñados para crear estafas. 

Estos softwares de modelo de lenguaje son conocidos como WormGPT y FraudGPT y se ofertan en la dark web bajo suscripciones mensuales o anuales, y hasta con la posibilidad de comprar un chatbot personalizado para realizar fraudes en línea. Los precios oscilan entre los $90 y los $200 dólares por una suscripción mensual, entre $500 y $1,000 dólares por una suscripción semestral y entre $800 y $1,700 dólares por un año completo de servicio.

Leer más
¿ChatGPT está filtrando contraseñas y conversaciones privadas?

Una situación preocupante está detectando en las últimas horas el sitio ArsTechnica, ya que en un informe indica que varios usuarios están entregando pantallazos de errores y filtraciones de datos y contraseñas de ChatGPT.

Un usuario en particular reportó pantallazos que contenían varios pares de nombres de usuario y contraseñas que parecían estar conectados a un sistema de apoyo utilizado por los empleados de un portal de medicamentos recetados de farmacia.

Leer más
Hay una imagen que está destruyendo a ChatGPT

DT
Enviar imágenes como indicaciones a ChatGPT sigue siendo una característica bastante nueva, pero en mis propias pruebas, funciona bien la mayor parte del tiempo. Sin embargo, alguien acaba de encontrar una imagen que ChatGPT parece no poder manejar, y definitivamente no es lo que esperas.

La imagen, descubierta por brandon_xyzw en X (antes Twitter), presenta algo de ruido digital. No es nada especial, en realidad, solo un fondo negro con algunas líneas verticales por todas partes. Pero si intentas mostrárselo a ChatGPT, la imagen rompe el chatbot todas y cada una de las veces, sin falta.

Leer más