Skip to main content

Un investigador hace creer a ChatGPT que tiene 102 años y vive en la Matrix

ChatGPT, el modelo amplio de lenguaje más utilizado y prometedor del mundo, puede usarse para extraer información sensible de un usuario, según reportó a OpenAI el investigador en ciberseguridad Johann Rehberger.

Su hallazgo, contado en un videoblog consignado por  ArsTechnica, es una fuente de preocupación, pues señala que “cada que el usuario inicia una nueva conversación ChatGPT continúa extrayendo información”.

Spyware Injection Into ChatGPT's Long-Term Memory (SpAIware)

Aunque la falla ha sido corregida parcialmente, el experimento realizado por Rehberger muestra que los modelos amplios de lenguaje o large language model, como ChatGPT, pueden almacenar información sensible de algún usuario, incluidos datos sensibles mostrados en alguna cuenta de correo electrónico o una plataforma de almacenamiento en la nube.

Recommended Videos

Rehberger probó esta brecha de seguridad creando una prueba de concepto montando información falsa en nubes de Google Drive y OneDrive, así como subiendo imágenes e información detectable para buscadores como Bing. Con este modelo, explica el investigador, logró hacer que ChatGPT pensara que el usuario objetivo era un terraplanista de 102 años que vive en la matrix. 

¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.
Shutterstock

La vulnerabilidad, explica, está ligada a la llamada “memoria de conversación de largo plazo”, una característica que OpenAI comenzó a probar en febrero pasado y que consiste en almacenar conversaciones previas que ChatGPT utiliza como contexto en conversaciones futuras. De esta forma, el chatbot conoce información clave que utiliza como contexto, por ejemplo la edad del usuario o su género, aunque también aspectos más personales como sus creencias políticas.

Al cabo de tres meses de explorar los alcances de la vulnerabilidad, Rehberger encontró que estas “memorias” pueden crearse y almacenarse de forma permanentemente a través de la inyección indirecta de prompts, una falla que hace que ChatGPT siga instrucciones de fuentes poco fiables, como correos electrónicos, notas de blog o documentos.

Luego de reportar el fallo OpenAI realizó un ajuste que impide que las memorias de largo plazo sean usadas para extraer información sensible. No obstante, Rehberger asegura que fuentes de información poco confiables —como un blog o correo electrónico— todavía hacen que la herramienta de memoria cree paquetes de información de largo plazo plantados por un atacante.

Topics
Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
Tu historial de conversaciones de ChatGPT ahora se puede buscar
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

IA abierta
OpenAI presentó el martes una nueva forma de administrar de manera más eficiente su creciente historial de chat de ChatGPT: una función de búsqueda para la aplicación web. Con él, podrás sacar rápidamente a la luz referencias y chats anteriores para citar dentro de tu conversación actual de ChatGPT.

"Estamos comenzando a implementar la capacidad de buscar en su historial de chat en la web de ChatGPT", anunció la compañía a través de una publicación en X (anteriormente Twitter). "Ahora puedes abrir rápida y fácilmente un chat como referencia, o retomar un chat donde lo dejaste".

Leer más
¿Qué son las “alucinaciones” y por qué son un peligro en la IA?
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

Desde su lanzamiento en 2020, ChatGPT se convirtió en sinónimo de inteligencia artificial. Y es que este chatbot, un Large language model o modelo de lenguaje amplio ha probado ser fantástico para proporcionar respuestas convincentes y magistralmente redactactas sobre prácticamente todo tipo de tema, casi como si fuera una especie de Google superdotado. Sin embargo, aún cuando la versión más reciente, GPT-4o, es capaz de generar y entender texto, imágenes y sonido, ChatGPT y otros chatbots LLM pueden caer en “alucinaciones”. Aquí te explicamos qué son las alucinaciones de ChatGPT y por qué son un peligro en la IA.
¿Qué es una alucinación en inteligencia artificial?

Una alucinación es simplemente un chatbot diciendo una mentira, un sinsentido o un simplemente un bulo. Son potencialmente peligrosas porque, a medida que las personas confían más y más en herramientas como ChatGPT la sociedad se vuelve más propensa a caer en desinformación.

Leer más
¿Por qué ChatGPT es malo en matemáticas?
ChatGPT buscador

Cualquier usuario asiduo de ChatGPT sabe que el modelo de lenguaje amplio de OpenAI es malo en matemáticas. Sí, claro que resolverá problemas simples como una resta, pero cuando le pides una operación relativamente básica como una multiplicación con cifras medianamente grandes, ChatGPT comienza a mostrar sus carencias. ¿Por qué ChatGPT es malo en matemáticas? Hay varias razones, pero también algunas soluciones que podrían resultar interesantes desde un punto de vista de desarrollo que vamos a tratar de explicar.
Es que las matemáticas no son lo suyo

Hay varias razones que explican por qué ChatGPT es malo en matemáticas. Quizá la más importante es el tipo de material con el que ha sido entrenado: internet. Nos explicamos. ChatGPT es un modelo de lenguaje amplio (large language model o LLM por sus siglas en inglés) diseñado para generar conversaciones similares a las que tendrían dos humanos. Para lograr esta característica fue entrenado con técnicas de deep learning, es decir, ChatGPT “aprende” de patrones y estructuras de millones de textos disponibles en internet. Con esa “fuente de conocimiento” genera respuestas relevantes según el contexto en el que se le pregunta.

Leer más