Skip to main content

Un investigador hace creer a ChatGPT que tiene 102 años y vive en la Matrix

ChatGPT, el modelo amplio de lenguaje más utilizado y prometedor del mundo, puede usarse para extraer información sensible de un usuario, según reportó a OpenAI el investigador en ciberseguridad Johann Rehberger.

Su hallazgo, contado en un videoblog consignado por  ArsTechnica, es una fuente de preocupación, pues señala que “cada que el usuario inicia una nueva conversación ChatGPT continúa extrayendo información”.

Spyware Injection Into ChatGPT's Long-Term Memory (SpAIware)

Aunque la falla ha sido corregida parcialmente, el experimento realizado por Rehberger muestra que los modelos amplios de lenguaje o large language model, como ChatGPT, pueden almacenar información sensible de algún usuario, incluidos datos sensibles mostrados en alguna cuenta de correo electrónico o una plataforma de almacenamiento en la nube.

Recommended Videos

Rehberger probó esta brecha de seguridad creando una prueba de concepto montando información falsa en nubes de Google Drive y OneDrive, así como subiendo imágenes e información detectable para buscadores como Bing. Con este modelo, explica el investigador, logró hacer que ChatGPT pensara que el usuario objetivo era un terraplanista de 102 años que vive en la matrix. 

¿Qué es ChatGPT? Cómo usar el chatbot del que todo el mundo habla.
Shutterstock

La vulnerabilidad, explica, está ligada a la llamada “memoria de conversación de largo plazo”, una característica que OpenAI comenzó a probar en febrero pasado y que consiste en almacenar conversaciones previas que ChatGPT utiliza como contexto en conversaciones futuras. De esta forma, el chatbot conoce información clave que utiliza como contexto, por ejemplo la edad del usuario o su género, aunque también aspectos más personales como sus creencias políticas.

Al cabo de tres meses de explorar los alcances de la vulnerabilidad, Rehberger encontró que estas “memorias” pueden crearse y almacenarse de forma permanentemente a través de la inyección indirecta de prompts, una falla que hace que ChatGPT siga instrucciones de fuentes poco fiables, como correos electrónicos, notas de blog o documentos.

Luego de reportar el fallo OpenAI realizó un ajuste que impide que las memorias de largo plazo sean usadas para extraer información sensible. No obstante, Rehberger asegura que fuentes de información poco confiables —como un blog o correo electrónico— todavía hacen que la herramienta de memoria cree paquetes de información de largo plazo plantados por un atacante.

Topics
Allan Vélez
Allan Vélez es un periodista mexicano especializado en tecnología. Inició su carrera en 2013 en La Revista Oficial de…
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del usuario al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más
¿ChatGPT tendrá una marca de agua para pillar a los tramposos?
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

Muchos profesores e incluso empleadores se están quejando que varios trabajos están siendo realizados casi cien por ciento con el uso de ChatGPT, y la tarea se dificulta para ellos de saber si lo que están leyendo es original o plagiado.

Y para eso, según The Wall Street Journal, OpenAI está debatiendo si realmente debe lanzar una nueva herramienta: una marca de agua para detectar tramposos.
En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la compañía está investigando el método de marca de agua de texto, pero dijo que está adoptando un "enfoque deliberado" debido a "las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI".
"El método de marca de agua de texto que estamos desarrollando es técnicamente prometedor, pero tiene riesgos importantes que estamos sopesando mientras investigamos alternativas, incluida la susceptibilidad a la elusión por parte de malos actores y el potencial de afectar desproporcionadamente a grupos como los que no hablan inglés", dijo el portavoz.
Tras la publicación de la historia del Journal, OpenAI también actualizó una entrada de blog de mayo sobre su investigación sobre la detección de contenidos generados por IA. La actualización dice que la marca de agua de texto ha demostrado ser "altamente precisa e incluso efectiva contra la manipulación localizada, como la paráfrasis", pero ha demostrado ser "menos robusta contra la manipulación globalizada; como usar sistemas de traducción, reformular con otro modelo generativo o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter".
Como resultado, OpenAI escribe que este método es "trivial para la elusión por parte de malos actores". La actualización de OpenAI también se hace eco del punto del portavoz sobre los no angloparlantes, escribiendo que la marca de agua de texto podría "estigmatizar el uso de la IA como una herramienta de escritura útil para los hablantes no nativos de inglés".

Leer más
ChatGPT tiene más suscriptores que este popular servicio de streaming
chatgpt mas suscriptores popular servicio streaming sam altman

Andrew Martonik / DT
La arrolladora de OpenAI sobre sus rivales continuó a buen ritmo esta semana, y un nuevo estudio estima cuánto éxito ha tenido en ganar suscriptores pagos a través de ChatGPT Plus.

Según un informe publicado por Futuresearch esta semana, los productos de OpenAI son, con diferencia, los más populares -y rentables- en el espacio de la IA. Según el estudio, OpenAI tiene unos ingresos recurrentes anuales estimados de 3.400 millones de dólares.
Búsqueda de futuro
Alrededor del 55% de eso, o 1.900 millones de dólares, proviene de sus 7,7 millones de suscriptores de ChatGPT Plus que pagan 20 dólares al mes por el servicio. Otro 21%, o 714 millones de dólares, proviene de los 1,2 millones de suscriptores de ChatGPT Enterprise de 50 dólares al mes de la compañía. Solo el 15%, o 510 millones de dólares, se genera a partir de la API de la IA, mientras que el 8% restante, o 290 millones de dólares, proviene de sus 980.000 suscriptores de ChatGPT Teams que pagan 25 dólares al mes. En total, se estima que OpenAI tiene unos 9,88 millones de suscriptores mensuales.

Leer más