Skip to main content

Meta emite una advertencia sobre estafas relacionadas con ChatGPT

Tan seguro como la noche sigue al día, los estafadores se han interesado rápidamente en ChatGPT, el chatbot avanzado impulsado por IA de OpenAI respaldado por Microsoft que irrumpió en escena en noviembre.

En un nuevo informe de seguridad publicado por Meta el miércoles, la compañía anteriormente conocida como Facebook dijo que solo desde marzo, sus analistas de seguridad han descubierto alrededor de 10 tipos de malware que se hacen pasar por ChatGPT y herramientas similares basadas en IA que tienen como objetivo comprometer las cuentas en línea, especialmente las de las empresas.

Recommended Videos

Las estafas podrían entregarse a través de, por ejemplo, extensiones de navegador web, algunas de ellas encontradas en tiendas web oficiales, que ofrecen herramientas relacionadas con ChatGPT e incluso podrían ofrecer alguna funcionalidad similar a ChatGPT, escribió en la publicación Guy Rosen, director de seguridad de la información de Meta. Pero las extensiones están diseñadas en última instancia para engañar a los usuarios para que entreguen información confidencial o acepten cargas maliciosas.

El director de seguridad de la información de Meta dijo que su equipo ha visto malware disfrazado de aplicaciones ChatGPT y luego, después de la detección, simplemente cambió sus señuelos a otros productos populares como la herramienta Bard impulsada por IA de Google, en un intento por evitar la detección.

Rosen dijo que Meta había detectado y bloqueado más de 1.000 URL maliciosas únicas para que no se compartieran en sus aplicaciones y las había informado a las compañías donde estaba alojado el malware para permitirles tomar sus propias medidas apropiadas.

Meta prometió que continuará destacando cómo funcionan estas campañas maliciosas, compartirá indicadores de amenazas con las empresas e introducirá protecciones actualizadas para abordar las nuevas tácticas de los estafadores. Parte de sus esfuerzos también incluyen el lanzamiento de un nuevo flujo de soporte para las empresas afectadas por el malware.

Citando el ejemplo de las estafas criptográficas, Rosen señaló cómo el nuevo asalto de los ciberdelincuentes sigue un patrón mediante el cual explotan la popularidad de productos tecnológicos nuevos o bulliciosos para tratar de engañar a usuarios inocentes para que caigan en sus artimañas.

«El espacio generativo de IA está evolucionando rápidamente y los malos actores lo saben, por lo que todos debemos estar atentos», advirtió Rosen.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Tu historial de conversaciones de ChatGPT ahora se puede buscar
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

IA abierta
OpenAI presentó el martes una nueva forma de administrar de manera más eficiente su creciente historial de chat de ChatGPT: una función de búsqueda para la aplicación web. Con él, podrás sacar rápidamente a la luz referencias y chats anteriores para citar dentro de tu conversación actual de ChatGPT.

"Estamos comenzando a implementar la capacidad de buscar en su historial de chat en la web de ChatGPT", anunció la compañía a través de una publicación en X (anteriormente Twitter). "Ahora puedes abrir rápida y fácilmente un chat como referencia, o retomar un chat donde lo dejaste".

Leer más
El mismo Apple cree que Siri no está listo para vencer a ChatGPT
Un iPhone con el logo de Siri encima y al lado la frase que dice: "Hey Siri".

Con la presentación del nuevo iPad Mini, Apple dejó claro que una experiencia de software rebosante de IA es el camino a seguir. Y si eso significara hacer el mismo tipo de actualizaciones internas a una tableta que cuesta casi la mitad que su teléfono insignia, la compañía aún seguiría adelante.

Sin embargo, sus ambiciones con Apple Intelligence carecen de vigor competitivo, e incluso para los propios estándares de Apple, la experiencia no ha logrado sorprender a los usuarios. Además de eso, el despliegue escalonado de las funciones de IA más ambiciosas, muchas de las cuales aún están en el futuro, ha dejado a los entusiastas con una mala impresión.

Leer más
¿Por qué ChatGPT es malo en matemáticas?
ChatGPT buscador

Cualquier usuario asiduo de ChatGPT sabe que el modelo de lenguaje amplio de OpenAI es malo en matemáticas. Sí, claro que resolverá problemas simples como una resta, pero cuando le pides una operación relativamente básica como una multiplicación con cifras medianamente grandes, ChatGPT comienza a mostrar sus carencias. ¿Por qué ChatGPT es malo en matemáticas? Hay varias razones, pero también algunas soluciones que podrían resultar interesantes desde un punto de vista de desarrollo que vamos a tratar de explicar.
Es que las matemáticas no son lo suyo

Hay varias razones que explican por qué ChatGPT es malo en matemáticas. Quizá la más importante es el tipo de material con el que ha sido entrenado: internet. Nos explicamos. ChatGPT es un modelo de lenguaje amplio (large language model o LLM por sus siglas en inglés) diseñado para generar conversaciones similares a las que tendrían dos humanos. Para lograr esta característica fue entrenado con técnicas de deep learning, es decir, ChatGPT “aprende” de patrones y estructuras de millones de textos disponibles en internet. Con esa “fuente de conocimiento” genera respuestas relevantes según el contexto en el que se le pregunta.

Leer más