Skip to main content
  1. Home
  2. Computación
  3. Noticias
  4. News

Un grupo de científicos le hicieron un jailbreak a ChatGPT

Add as a preferred source on Google
Imagen utilizada con permiso del titular de los derechos de autor

Un grupo de investigadores ha descubierto que es posible eludir el mecanismo arraigado en los chatbots de IA para que puedan responder a consultas sobre temas prohibidos o delicados mediante el uso de un chatbot de IA diferente como parte del proceso de entrenamiento.

Un equipo de científicos informáticos de la Universidad Tecnológica de Nanyang (NTU) de Singapur llama extraoficialmente al método un «jailbreak», pero es más oficialmente un proceso «Masterkey». Este sistema utiliza chatbots, incluidos ChatGPT, Google Bard y Microsoft Bing Chat, entre sí en un método de entrenamiento de dos partes que permite que dos chatbots aprendan los modelos del otro y desvíen cualquier comando contra temas prohibidos.

Recommended Videos

El equipo incluye al profesor Liu Yang y a los estudiantes de doctorado de la NTU, el Sr. Deng Gelei y el Sr. Liu Yi, coautores de la investigación y desarrolladores los métodos de ataque de prueba de concepto.

Según el equipo, primero aplicaron ingeniería inversa a un gran modelo de lenguaje (LLM) para exponer sus mecanismos de defensa. Originalmente, estos serían bloqueos en el modelo y no permitirían que las respuestas a ciertas indicaciones o palabras se procesaran como respuestas debido a intenciones violentas, inmorales o maliciosas.

Pero con esta información sometida a ingeniería inversa, pueden enseñar a un LLM diferente cómo crear un bypass. Con el bypass creado, el segundo modelo podrá expresarse más libremente, basándose en el LLM de ingeniería inversa del primer modelo. El equipo llama a este proceso «Masterkey» porque debería funcionar incluso si los chatbots de LLM se fortalecen con seguridad adicional o se parchean en el futuro.

El profesor Lui Yang señaló que el quid del proceso es que muestra la facilidad con la que los chatbots de IA de LLM pueden aprender y adaptarse. El equipo afirma que su proceso Masterkey ha tenido tres veces más éxito en el jailbreak de chatbots LLM que un proceso de solicitud tradicional. Del mismo modo, algunos expertos argumentan que los fallos recientemente propuestos que han experimentado ciertos LLM, como GPT-4, son signos de que se está volviendo más avanzado, en lugar de más tonto y perezoso, como han afirmado algunos críticos.

El equipo de investigación de la NTU se puso en contacto con los proveedores de servicios de chatbot de IA que participaron en el estudio sobre sus datos de prueba de concepto, que muestran que el jailbreak para los chatbots es real. El equipo también presentará sus hallazgos en el Simposio de Seguridad de Redes y Sistemas Distribuidos en San Diego en febrero.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La máquina pensante: así es el libro sobre el CEO de Nvidia
Libro la máquina pensante

En junio de 2024, impulsada por el auge de la inteligencia artificial tras el lanzamiento de ChatGPT, Nvidia se convirtió en la corporación más valiosa del mundo. Tres décadas después de su fundación en un restaurante Denny’s, la compañía pasó de fabricar componentes para videojuegos a liderar el mercado global del hardware para IA. Esta transformación histórica es el eje central de La máquina pensante, el nuevo libro del periodista Stephen Witt.

En esta obra, Witt narra cómo Jensen Huang, cofundador y director general de Nvidia, apostó hace más de una década por una tecnología que entonces parecía marginal: la inteligencia artificial. Una decisión arriesgada que terminó redefiniendo la arquitectura del ordenador moderno y situando a la compañía en el centro de la revolución tecnológica actual.

Read more
El papá de Signal crea Confer: la privacidad en asistentes de IA
Electronics, Mobile Phone, Phone

Moxie Marlinspike, el ingeniero que revolucionó la comunicación privada mediante Signal, anunció oficialmente Confer, un servicio de asistente de inteligencia artificial diseñado específicamente para garantizar privacidad de extremo a extremo en conversaciones con sistemas de IA. El proyecto, disponible en fase de prueba inicial, implementa arquitecturas criptográficas que previenen que operadores de plataforma, piratas informáticos o gobiernos accedan a contenido de chat.

Confer fundamenta su propuesta en una premisa central: interacciones con asistentes de inteligencia artificial deberían ser tan privadas como conversaciones entre personas. Actualmente, plataformas como ChatGPT funcionan como "lagos de datos públicos," donde los usuarios comparten pensamientos incompletos, patrones de razonamiento y puntos de incertidumbre que permanecen registrados indefinidamente. Un decreto judicial en mayo de 2025 requirió a OpenAI preservar registros completos de conversaciones de usuarios, incluyendo chats eliminados.

Read more
Tu próximo mini PC retro puede parecer una PlayStation clásica
Mini PC retro

Acemagic está aprovechando el ambiente retro de mini PC con un nuevo diseño que toma elementos de la Sega Dreamcast y la PlayStation original. Es un pequeño escritorio que parece pertenecer a la misma estantería que tus consolas antiguas, no oculto tras un monitor.

No fue el único homenaje al pasado que se mostró en el CES 2026. Acemagic también trajo un mini PC inspirado en NES, pero el modelo al estilo Dreamcast y PlayStation es el que está vinculado a la última plataforma de AMD.

Read more