Skip to main content
  1. Casa
  2. Computación
  3. Features

Un investigador hace creer a ChatGPT que tiene 102 años y vive en la Matrix

ChatGPT, el modelo amplio de lenguaje más utilizado y prometedor del mundo, puede usarse para extraer información sensible de un usuario, según reportó a OpenAI el investigador en ciberseguridad Johann Rehberger.

Su hallazgo, contado en un videoblog consignado por  ArsTechnica, es una fuente de preocupación, pues señala que “cada que el usuario inicia una nueva conversación ChatGPT continúa extrayendo información”.

Spyware Injection Into ChatGPT's Long-Term Memory (SpAIware)

Aunque la falla ha sido corregida parcialmente, el experimento realizado por Rehberger muestra que los modelos amplios de lenguaje o large language model, como ChatGPT, pueden almacenar información sensible de algún usuario, incluidos datos sensibles mostrados en alguna cuenta de correo electrónico o una plataforma de almacenamiento en la nube.

Recommended Videos

Rehberger probó esta brecha de seguridad creando una prueba de concepto montando información falsa en nubes de Google Drive y OneDrive, así como subiendo imágenes e información detectable para buscadores como Bing. Con este modelo, explica el investigador, logró hacer que ChatGPT pensara que el usuario objetivo era un terraplanista de 102 años que vive en la matrix. 

¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.
Shutterstock

La vulnerabilidad, explica, está ligada a la llamada “memoria de conversación de largo plazo”, una característica que OpenAI comenzó a probar en febrero pasado y que consiste en almacenar conversaciones previas que ChatGPT utiliza como contexto en conversaciones futuras. De esta forma, el chatbot conoce información clave que utiliza como contexto, por ejemplo la edad del usuario o su género, aunque también aspectos más personales como sus creencias políticas.

Al cabo de tres meses de explorar los alcances de la vulnerabilidad, Rehberger encontró que estas “memorias” pueden crearse y almacenarse de forma permanentemente a través de la inyección indirecta de prompts, una falla que hace que ChatGPT siga instrucciones de fuentes poco fiables, como correos electrónicos, notas de blog o documentos.

Luego de reportar el fallo OpenAI realizó un ajuste que impide que las memorias de largo plazo sean usadas para extraer información sensible. No obstante, Rehberger asegura que fuentes de información poco confiables —como un blog o correo electrónico— todavía hacen que la herramienta de memoria cree paquetes de información de largo plazo plantados por un atacante.

Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
Topics
El creador de ChatGPT dará certificados de IA en su propio LinkedIn
ChatGPT

OpenAI ha anunciado hoy que pronto lanzará su propia plataforma de descubrimiento de empleo que permitirá a las empresas contratar personas con habilidades modernas de IA. Además, la compañía también planea ofrecer certificados por completar cursos de IA para mejorar las habilidades de los solicitantes de empleo y ayudarlos a conseguir mejores roles.

¿A dónde va esto?

Leer más
ChatGPT aplicará filtros parentales y enrutará conversaciones
ChatGPT

Las recientes denuncias contra OpenAI, por suicidios adolescentes o problemas en la regulación del contenido con que niños y jóvenes interactúan con ChatGPT y los nuevos modelos de razonamiento como GPT-5, están generando las primeras medidas de la compañía de Sam Altman.

En una publicación de blog este 2 de septiembre, OpenAI toma el guante y está anunciando controles parentales, además de enrutar ciertas conversaciones.

Leer más
ChatGPT podría estar cambiando permanentemente la forma en que hablamos
ChatGPT

Hace solo unas semanas, un artículo del MIT suscitó un debate generalizado sobre cómo el uso de herramientas de IA como ChatGPT estaba afectando nuestro pensamiento cognitivo y crítico. Los hallazgos, aunque sorprendentes, no fueron del todo inesperados. Ya en 2023, Jeff Hancock, profesor de Comunicación en Stanford, reveló cómo la charla de IA ya ha cambiado la forma en que percibimos el lenguaje y su impacto emocional.

"Lo que descubrimos es que incluso si no usa esas respuestas generadas por IA, influyen en cómo piensa", dijo, citando el ejemplo de las plantillas de respuesta inteligente en correos electrónicos y aplicaciones de mensajería. Dos años después, parece que los patrones de lenguaje característicos de los grandes modelos lingüísticos como ChatGPT también se están convirtiendo en parte de las conversaciones humanas naturales.

Leer más