Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

«Panorama sombrío», delincuentes se apoderan de chatbots de IA

Europol emitió esta semana una severa advertencia destacando los riesgos planteados por los delincuentes a medida que se familiarizan con la nueva ola de chatbots avanzados de IA.

En una publicación compartida en línea esta semana, la agencia de aplicación de la ley de Europa describió cómo herramientas como ChatGPT y GPT-4 de OpenAI, y Bard de Google, serán cada vez más utilizadas por delincuentes que buscan nuevas formas de estafar a los miembros del público.

Recommended Videos

Identificó tres áreas específicas que más le preocupan.

En primer lugar está el fraude y la ingeniería social, donde se envían correos electrónicos a los objetivos con la esperanza de que descarguen un archivo infectado con malware o hagan clic en un enlace que los lleve a un sitio web igualmente peligroso.

Los correos electrónicos de phishing, como se les conoce, generalmente están llenos de errores gramaticales y ortográficos y terminan en la carpeta de correo no deseado. Incluso aquellos que llegan a la bandeja de entrada están escritos de manera tan terrible que el destinatario puede descartarlos rápidamente sin pensarlo dos veces.

Imagen utilizada con permiso del titular de los derechos de autor

Pero los chatbots de IA pueden crear mensajes bien escritos y libres de errores descuidados, lo que permite a los delincuentes enviar correos electrónicos convincentes que significan que los destinatarios tendrán que prestar atención adicional al revisar sus mensajes.

Europol dijo que los chatbots avanzados pueden «reproducir patrones de lenguaje que pueden usarse para hacerse pasar por el estilo de habla de individuos o grupos específicos», y agregó que tal capacidad puede ser «abusada a escala para engañar a las víctimas potenciales para que depositen su confianza en manos de actores criminales».

También proliferará una forma más convincente de desinformación, con la nueva ola de chatbots sobresaliendo en la creación de texto que suena auténtico a velocidad y escala, dijo Europol, y agregó: «Esto hace que el modelo sea ideal para fines de propaganda y desinformación, ya que permite a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo».

En tercer lugar, Europol citó la codificación como una nueva área que está siendo aprovechada por los ciberdelincuentes para crear software malicioso. «Además de generar un lenguaje similar al humano, ChatGPT es capaz de producir código en varios lenguajes de programación diferentes», señaló la agencia. «Para un criminal potencial con poco conocimiento técnico, este es un recurso invaluable para producir código malicioso».

Dijo que la situación «proporciona una perspectiva sombría» para aquellos en el lado correcto de la ley a medida que la actividad nefasta en línea se vuelve más difícil de detectar.

La locura del chatbot de IA despegó en noviembre de 2022 cuando OpenAI, respaldado por Microsoft, lanzó su impresionante herramienta ChatGPT. Una versión mejorada, GPT-4, fue lanzada recientemente, mientras que Google también ha presentado su propia herramienta similar, llamada Bard. Los tres se caracterizan por su impresionante capacidad para crear texto que suena natural con solo unas pocas indicaciones, y es probable que la tecnología ayude o incluso reemplace una gran cantidad de trabajos diferentes en los próximos años.

Otra tecnología similar basada en IA le permite crear imágenes, videos y audio originales con solo unas pocas indicaciones de texto, destacando cómo ninguna forma de medio escapará al impacto de la IA a medida que la tecnología continúe mejorando.

Algunas voces líderes tienen preocupaciones comprensibles sobre su rápido ascenso, con una reciente carta abierta firmada por Elon Musk, el cofundador de Apple Steve Wozniak y varios expertos que afirman que los sistemas de IA con inteligencia competitiva humana pueden plantear «profundos riesgos para la sociedad y la humanidad». La carta pedía una pausa de seis meses para permitir la creación e implementación de protocolos de seguridad para las herramientas avanzadas, y agregó que si se maneja de la manera correcta, «la humanidad puede disfrutar de un futuro floreciente con IA».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI detiene la generación gratuita de imágenes GPT-4o tras la tendencia viral de Studio Ghibli
Studio Ghibli ChatGPT

Después de solo un día, OpenAI ha puesto fin a la versión gratuita de su generador de imágenes en la aplicación, impulsado por el modelo de razonamiento GPT-4o. La actualización tiene como objetivo mejorar el realismo de las imágenes y el texto en el contexto generado por la IA; sin embargo, los usuarios ya han creado una tendencia descontrolada que ha hecho que la empresa de IA se replantee su estrategia de lanzamiento.
Poco después de que la actualización estuviera disponible en ChatGPT, los usuarios comenzaron a compartir imágenes que habían creado en las plataformas de redes sociales al estilo de Studio Ghibli, el popular estudio de animación japonés. Las creaciones iban desde fotos familiares personales basadas en Studio Ghibli hasta escenas icónicas de los Juegos Olímpicos de París 2024, escenas de películas como "El Padrino" y "Star Wars", y memes de Internet como un novio distraído y una chica desastre.

IA abierta

Leer más
Al hombre que se buscó a sí mismo en ChatGPT le dijeron que «mató a sus hijos»
ChatGPT

Imagínate poner tu nombre en ChatGPT para ver qué sabe de ti, solo para que afirme con confianza, pero erróneamente, que has sido encarcelado durante 21 años por asesinar a miembros de tu familia.
Bueno, eso es exactamente lo que le sucedió al noruego Arve Hjalmar Holmen el año pasado después de que se buscara a sí mismo en ChatGPT, el chatbot impulsado por IA ampliamente utilizado de OpenAI.
No es de extrañar que Holmen haya presentado una queja ante la Autoridad de Protección de Datos de Noruega, exigiendo que OpenAI sea multada por su angustiosa afirmación, informó la BBC esta semana.
En respuesta a la pregunta de Holmen sobre ChatGPT sobre sí mismo, el chatbot dijo que había "llamado la atención debido a un evento trágico".
Y continuó: "Era padre de dos niños pequeños, de 7 y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020. Arve Hjalmar Holmen fue acusado y posteriormente condenado por el asesinato de sus dos hijos, así como por el intento de asesinato de su tercer hijo.
El chatbot dijo que el caso "conmocionó a la comunidad local y a la nación, y fue ampliamente cubierto por los medios debido a su naturaleza trágica".
Pero nada de eso sucedió.
Comprensiblemente molesto por el incidente, Holmen le dijo a la BBC: "Algunos piensan que no hay humo sin fuego, el hecho de que alguien pueda leer este resultado y creer que es cierto es lo que más me asusta".
El grupo de derechos digitales Noyb ha presentado la denuncia en nombre de Holmen, afirmando que la respuesta de ChatGPT es difamatoria y contraviene las normas europeas de protección de datos con respecto a la exactitud de los datos personales. En su denuncia, Noyb dijo que Holmen "nunca ha sido acusado ni condenado por ningún delito y es un ciudadano consciente".
ChatGPT utiliza un descargo de responsabilidad que dice que el chatbot "puede cometer errores", por lo que los usuarios deben "verificar información importante". Pero el abogado de Noyb, Joakim Söderberg, dijo: "No se puede simplemente difundir información falsa y al final agregar un pequeño descargo de responsabilidad que diga que todo lo que dijo puede no ser cierto".
Si bien no es raro que los chatbots de IA escupan información errónea (tales errores se conocen como "alucinaciones"), la atrocidad de este error en particular es impactante.
Otra alucinación que llegó a los titulares el año pasado involucró a la herramienta AI Gemini de Google, que sugería pegar queso a la pizza con pegamento. También afirmaba que los geólogos habían recomendado que los humanos comieran una roca al día.
La BBC señala que ChatGPT ha actualizado su modelo desde la búsqueda de Holmen el pasado mes de agosto, lo que significa que ahora rastrea los artículos de noticias recientes a la hora de crear su respuesta. Pero eso no significa que ChatGPT esté creando ahora respuestas sin errores.
La historia destaca la necesidad de verificar las respuestas generadas por los chatbots de IA y no confiar ciegamente en sus respuestas. También plantea preguntas sobre la seguridad de las herramientas de IA generativa basadas en texto, que han operado con poca supervisión regulatoria desde que OpenAI abrió el sector con el lanzamiento de ChatGPT a fines de 2022.

Leer más
Estos son los motores de búsqueda con IA que más mienten e inventan
estos son los motores de busqueda con ia que mas mienten e inventan solen feyissa norcov89xm0 unsplash

La implementación de los motores de búsqueda con IA, todavía está en pañales, y esa infancia temprana está entregando muchos errores. 
Un nuevo informe de investigación de Columbia Journalism Review (CJR) ha descubierto que los modelos de IA de empresas como OpenAI y xAI, cuando se les pregunta sobre un evento noticioso específico, la mayoría de las veces, simplemente inventan una historia o se equivocan en detalles significativos.
Los investigadores alimentaron a varios modelos con extractos directos de noticias reales y luego les pidieron que identificaran la información, incluido el título del artículo, el editor y la URL. Perplexity devolvió información incorrecta el 37 por ciento de las veces, mientras que en el extremo, Grok de xAI inventó detalles el 97 por ciento de las veces. Los errores incluían ofrecer enlaces a artículos que no iban a ninguna parte porque el bot incluso inventó la URL misma. En general, los investigadores encontraron que los modelos de IA entregaron información falsa para el 60 por ciento de las consultas de prueba.
Los motores de búsqueda de IA que más mienten

Mark Howard, director de operaciones de la revista Time, entregó una opinión categórica sobre la responsabilidad de la mala información que entregan los motores de búsqueda con IA, y no duda también en culpar a los usuarios.
"Si alguien, como consumidor, cree ahora mismo que alguno de estos productos gratuitos va a ser 100 por ciento preciso, entonces qué vergüenza".
 CJR dice que uno de cada cuatro estadounidenses ahora usa modelos de IA para la búsqueda. E incluso antes del lanzamiento de las herramientas de IA generativa, más de la mitad de las búsquedas de Google eran de "clic cero", lo que significa que el usuario obtenía la información que necesitaba sin hacer clic en un sitio web.

Leer más