Skip to main content

Cuidado: muchas extensiones y apps de ChatGPT podrían ser malware

La fiebre de ChatGPT se ha apoderado de Internet, y con razón, ya que es una nueva herramienta tan poderosa. Desafortunadamente, el contenido más buscado es a menudo un terreno fértil para hackers y estafadores.

En un video reciente, el YouTuber centrado en la ciberseguridad John Hammond advirtió que muchas extensiones y aplicaciones de ChatGPT podrían contener malware. Es un punto válido, y todos debemos tener cuidado al instalar complementos de navegador de escritorio y aplicaciones móviles.

La publicación del blog ChatGPT de OpenAI está abierta en un monitor de computadora, tomada desde un ángulo alto.
Foto por Alan Truly

Cuando visita una página web, como ChatGPT, sabe quién puede acceder a la información que proporciona. OpenAI es una cantidad conocida que la mayoría de la gente respeta, incluso si existe cierta preocupación por el rápido ritmo de las actualizaciones de OpenAI al público.

Recommended Videos

Sin embargo, las políticas de privacidad de las extensiones y aplicaciones del navegador varían drásticamente. Aún más alarmante, independientemente de las afirmaciones de privacidad, es posible que no reconozca al desarrollador o sepa si es confiable. Es fácil afirmar que su información no será compartida o vendida, pero ¿quién hará cumplir esa política?

Hammond señala que va más allá de la información que puede proporcionar voluntariamente a la extensión o aplicación. Los hackers tienen formas de eludir las funciones de seguridad, especialmente cuando lo hacen con el software que ha instalado en su dispositivo.

Citando un informe reciente de Guardio sobre una extensión falsa de ChatGPT para Chrome, Hammond explica que la extensión contenía malware que usaba una puerta trasera para acceder a la información de la cuenta de Facebook.

Al robar numerosas cuentas de Facebook, el malware creó bots que hicieron anuncios promocionando la extensión. Los anuncios dirigieron el tráfico a la extensión, generando más bots que publicaron más anuncios.

El objetivo del malware autorreplicante era recopilar información del usuario para venderla en la web oscura. Google eliminó la extensión, pero pronto apareció otra, y la batalla contra el malware parece interminable.

Most ChatGPT Extensions Are Just Malware

La conclusión crítica del video es tener cuidado con cada extensión del navegador que instale. Cualquier software que resida en su computadora tiene mayor acceso que una página web. Lo mismo ocurre con las aplicaciones móviles.

Si desea utilizar ChatGPT, puede hacerlo desde el sitio web de OpenAI. GPT-4, la tecnología OpenAI detrás de ChatGPT, impulsa Bing Chat y está disponible en una pestaña en cualquier búsqueda de Bing. Bing Chat también está disponible en tu teléfono a través de la aplicación Bing o el navegador Edge.

Si aún desea usar una extensión o aplicación de navegador que agregue capacidades adicionales o haga que la IA avanzada sea más conveniente, proceda con precaución. Consulte la política de privacidad, lea las reseñas y obtenga más información sobre el desarrollador antes de confiar en que sus datos estarán seguros y privados.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
o1: OpenAI sube otro peldaño con IA que piensa de manera más compleja
o1 openai pensamiento complejo

Catherine Brownstein: OpenAI o1 & Genetics

Un nuevo escalón evolutivo acaba de subir OpenAI en su carrera por encontrar el modelo perfecto de IA, ya que este 12 de septiembre presentó o1, un sistema que se integrará a ChatGPT y está pensado para dar respuestas más complejas a preguntas más difíciles, específicamente ideado para campos laborales, de estudio y empresas.

Leer más
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más