Skip to main content

DT en Español podría recibir una comisión si compras un producto desde el sitio

«Panorama sombrío», delincuentes se apoderan de chatbots de IA

Europol emitió esta semana una severa advertencia destacando los riesgos planteados por los delincuentes a medida que se familiarizan con la nueva ola de chatbots avanzados de IA.

En una publicación compartida en línea esta semana, la agencia de aplicación de la ley de Europa describió cómo herramientas como ChatGPT y GPT-4 de OpenAI, y Bard de Google, serán cada vez más utilizadas por delincuentes que buscan nuevas formas de estafar a los miembros del público.

Recommended Videos

Identificó tres áreas específicas que más le preocupan.

En primer lugar está el fraude y la ingeniería social, donde se envían correos electrónicos a los objetivos con la esperanza de que descarguen un archivo infectado con malware o hagan clic en un enlace que los lleve a un sitio web igualmente peligroso.

Los correos electrónicos de phishing, como se les conoce, generalmente están llenos de errores gramaticales y ortográficos y terminan en la carpeta de correo no deseado. Incluso aquellos que llegan a la bandeja de entrada están escritos de manera tan terrible que el destinatario puede descartarlos rápidamente sin pensarlo dos veces.

Imagen utilizada con permiso del titular de los derechos de autor

Pero los chatbots de IA pueden crear mensajes bien escritos y libres de errores descuidados, lo que permite a los delincuentes enviar correos electrónicos convincentes que significan que los destinatarios tendrán que prestar atención adicional al revisar sus mensajes.

Europol dijo que los chatbots avanzados pueden «reproducir patrones de lenguaje que pueden usarse para hacerse pasar por el estilo de habla de individuos o grupos específicos», y agregó que tal capacidad puede ser «abusada a escala para engañar a las víctimas potenciales para que depositen su confianza en manos de actores criminales».

También proliferará una forma más convincente de desinformación, con la nueva ola de chatbots sobresaliendo en la creación de texto que suena auténtico a velocidad y escala, dijo Europol, y agregó: «Esto hace que el modelo sea ideal para fines de propaganda y desinformación, ya que permite a los usuarios generar y difundir mensajes que reflejen una narrativa específica con relativamente poco esfuerzo».

En tercer lugar, Europol citó la codificación como una nueva área que está siendo aprovechada por los ciberdelincuentes para crear software malicioso. «Además de generar un lenguaje similar al humano, ChatGPT es capaz de producir código en varios lenguajes de programación diferentes», señaló la agencia. «Para un criminal potencial con poco conocimiento técnico, este es un recurso invaluable para producir código malicioso».

Dijo que la situación «proporciona una perspectiva sombría» para aquellos en el lado correcto de la ley a medida que la actividad nefasta en línea se vuelve más difícil de detectar.

La locura del chatbot de IA despegó en noviembre de 2022 cuando OpenAI, respaldado por Microsoft, lanzó su impresionante herramienta ChatGPT. Una versión mejorada, GPT-4, fue lanzada recientemente, mientras que Google también ha presentado su propia herramienta similar, llamada Bard. Los tres se caracterizan por su impresionante capacidad para crear texto que suena natural con solo unas pocas indicaciones, y es probable que la tecnología ayude o incluso reemplace una gran cantidad de trabajos diferentes en los próximos años.

Otra tecnología similar basada en IA le permite crear imágenes, videos y audio originales con solo unas pocas indicaciones de texto, destacando cómo ninguna forma de medio escapará al impacto de la IA a medida que la tecnología continúe mejorando.

Algunas voces líderes tienen preocupaciones comprensibles sobre su rápido ascenso, con una reciente carta abierta firmada por Elon Musk, el cofundador de Apple Steve Wozniak y varios expertos que afirman que los sistemas de IA con inteligencia competitiva humana pueden plantear «profundos riesgos para la sociedad y la humanidad». La carta pedía una pausa de seis meses para permitir la creación e implementación de protocolos de seguridad para las herramientas avanzadas, y agregó que si se maneja de la manera correcta, «la humanidad puede disfrutar de un futuro floreciente con IA».

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Qué son las “alucinaciones” y por qué son un peligro en la IA?
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.
¿Qué es una alucinación en inteligencia artificial?

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Leer más
¿Por qué ChatGPT es malo en matemáticas?
ChatGPT buscador

Cualquier usuario asiduo de ChatGPT sabe que el modelo de lenguaje amplio de OpenAI es malo en matemáticas. Sí, claro que resolverá problemas simples como una resta, pero cuando le pides una operación relativamente básica como una multiplicación con cifras medianamente grandes, ChatGPT comienza a mostrar sus carencias. ¿Por qué ChatGPT es malo en matemáticas? Hay varias razones, pero también algunas soluciones que podrían resultar interesantes desde un punto de vista de desarrollo que vamos a tratar de explicar.
Es que las matemáticas no son lo suyo

Hay varias razones que explican por qué ChatGPT es malo en matemáticas. Quizá la más importante es el tipo de material con el que ha sido entrenado: internet. Nos explicamos. ChatGPT es un modelo de lenguaje amplio (large language model o LLM por sus siglas en inglés) diseñado para generar conversaciones similares a las que tendrían dos humanos. Para lograr esta característica fue entrenado con técnicas de deep learning, es decir, ChatGPT “aprende” de patrones y estructuras de millones de textos disponibles en internet. Con esa “fuente de conocimiento” genera respuestas relevantes según el contexto en el que se le pregunta.

Leer más
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del usuario al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más