Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

«Panorama sombrío», delincuentes se apoderan de chatbots de IA

Europol emitió esta semana una severa advertencia destacando los riesgos planteados por los delincuentes a medida que se familiarizan con la nueva ola de chatbots avanzados de IA.

En una publicación compartida en línea esta semana, la agencia de aplicación de la ley de Europa describió cómo herramientas como ChatGPT y GPT-4 de OpenAI, y Bard de Google, serán cada vez más utilizadas por delincuentes que buscan nuevas formas de estafar a los miembros del público.

Recommended Videos

Identificó tres áreas específicas que más le preocupan.

En primer lugar está el fraude y la ingeniería social, donde se envían correos electrónicos a los objetivos con la esperanza de que descarguen un archivo infectado con malware o hagan clic en un enlace que los lleve a un sitio web igualmente peligroso.

Los correos electrónicos de phishing, como se les conoce, generalmente están llenos de errores gramaticales y ortográficos y terminan en la carpeta de correo no deseado. Incluso aquellos que llegan a la bandeja de entrada están escritos de manera tan terrible que el destinatario puede descartarlos rápidamente sin pensarlo dos veces.

Imagen utilizada con permiso del titular de los derechos de autor

Pero los chatbots de IA pueden crear mensajes bien escritos y libres de errores descuidados, lo que permite a los delincuentes enviar correos electrónicos convincentes que significan que los destinatarios tendrán que prestar atención adicional al revisar sus mensajes.

Europol dijo que los chatbots avanzados pueden «reproducir patrones de lenguaje que pueden usarse para hacerse pasar por el estilo de habla de individuos o grupos específicos», y agregó que tal capacidad puede ser «abusada a escala para engañar a las víctimas potenciales para que depositen su confianza en manos de actores criminales».

También proliferará una forma más convincente de desinformación, con la nueva ola de chatbots sobresaliendo en la creación de texto que suena auténtico a velocidad y escala, dijo Europol, y agregó: «Esto hace que el modelo sea ideal para fines de propaganda y desinformación, ya que permite a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo».

En tercer lugar, Europol citó la codificación como una nueva área que está siendo aprovechada por los ciberdelincuentes para crear software malicioso. «Además de generar un lenguaje similar al humano, ChatGPT es capaz de producir código en varios lenguajes de programación diferentes», señaló la agencia. «Para un criminal potencial con poco conocimiento técnico, este es un recurso invaluable para producir código malicioso».

Dijo que la situación «proporciona una perspectiva sombría» para aquellos en el lado correcto de la ley a medida que la actividad nefasta en línea se vuelve más difícil de detectar.

La locura del chatbot de IA despegó en noviembre de 2022 cuando OpenAI, respaldado por Microsoft, lanzó su impresionante herramienta ChatGPT. Una versión mejorada, GPT-4, fue lanzada recientemente, mientras que Google también ha presentado su propia herramienta similar, llamada Bard. Los tres se caracterizan por su impresionante capacidad para crear texto que suena natural con solo unas pocas indicaciones, y es probable que la tecnología ayude o incluso reemplace una gran cantidad de trabajos diferentes en los próximos años.

Otra tecnología similar basada en IA le permite crear imágenes, videos y audio originales con solo unas pocas indicaciones de texto, destacando cómo ninguna forma de medio escapará al impacto de la IA a medida que la tecnología continúe mejorando.

Algunas voces líderes tienen preocupaciones comprensibles sobre su rápido ascenso, con una reciente carta abierta firmada por Elon Musk, el cofundador de Apple Steve Wozniak y varios expertos que afirman que los sistemas de IA con inteligencia competitiva humana pueden plantear «profundos riesgos para la sociedad y la humanidad». La carta pedía una pausa de seis meses para permitir la creación e implementación de protocolos de seguridad para las herramientas avanzadas, y agregó que si se maneja de la manera correcta, «la humanidad puede disfrutar de un futuro floreciente con IA».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Elon Musk anuncia IA Colossus: ¿de qué se trata?
elon musk anuncia ia colossus

Maja Hitij/Getty Images / Getty Images
La carrera por la supremacía de la IA se está acelerando una vez más, ya que el CEO de xAI, Elon Musk, anunció a través de X (ex Twitter) que su compañía puso en línea con éxito su grupo de entrenamiento de IA Colossus, que Musk califica como el "más poderoso" del mundo, durante el fin de semana.

https://twitter.com/elonmusk/status/1830650370336473253?ref_src=twsrc%5Etfw

Leer más
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más