Skip to main content

¿Qué es un mensaje DAN para ChatGPT?

El indicador DAN es un método para hacer jailbreak al chatbot ChatGPT. Significa Do Anything Now, y trata de convencer a ChatGPT de ignorar algunos de los protocolos de protección que el desarrollador OpenAI implementó para evitar que sea racista, homofóbico, ofensivo y potencialmente dañino. Los resultados son mixtos, pero cuando funciona, el modo DAN puede funcionar bastante bien.

Un mensaje DAN antiguo y que no funciona para ChatGPT.

¿Qué es el indicador DAN?

DAN significa Do Anything Now. Es un tipo de mensaje que intenta que ChatGPT haga cosas que no debería, como maldecir, hablar negativamente sobre alguien o incluso programar malware. El texto del mensaje real varía, pero generalmente implica pedirle a ChatGPT que responda de dos maneras, una como lo haría normalmente, con una etiqueta como «ChatGPT», «Clásico» o algo similar, y luego una segunda respuesta en «Modo de desarrollador» o «Jefe». Ese segundo modo tendrá menos restricciones que el primer modo, lo que permitirá a ChatGPT (en teoría) responder sin las salvaguardas habituales que controlan lo que puede y no puede decir.

Recommended Videos

Un mensaje de DAN también le pedirá a ChatGPT que no agregue muchas de sus disculpas, advertencias y oraciones extrañas habituales, lo que lo hace más conciso en sus respuestas.

¿Qué pueden hacer las indicaciones de ChatGPT DAN?

Un mensaje DAN está diseñado para que ChatGPT baje la guardia, permitiéndole responder preguntas que no debería, proporcionar información para la que ha sido programado específicamente o crear cosas para las que está diseñado para no hacer. Ha habido casos de un ChatGPT en modo DAN respondiendo a preguntas con lenguaje racista u ofensivo. Puede jurar, o incluso escribir malware en algunos casos.

Sin embargo, la eficacia de un mensaje DAN y las capacidades que ChatGPT tiene en modo DAN varían mucho, dependiendo del mensaje que se le dio y de cualquier cambio reciente que OpenAI haya realizado en el chatbot. Muchas de las indicaciones originales de DAN ya no funcionan.

Error de ChatGPT DAN.

¿Hay un aviso de DAN que funcione?

OpenAI actualiza constantemente ChatGPT con nuevas características, como complementos y búsqueda web, así como nuevas salvaguardas. Eso ha implicado reparar agujeros en ChatGPT que permiten que DAN y otros jailbreaks funcionen.

No hemos podido encontrar ningún mensaje DAN que funcione. Puede ser que si juegas con el lenguaje desde un mensaje en algo como el subreddit ChatGPTDAN, puedas hacer que funcione, pero en el momento de escribir, no es algo que esté disponible para el público.

Hay algunas indicaciones de DAN que parecen funcionar, pero después de una inspección adicional, simplemente proporcione una versión de ChatGPT que sea grosera y realmente no ofrezca ninguna habilidad nueva.

¿Cómo se escribe un mensaje de DAN?

Las indicaciones de DAN varían dramáticamente dependiendo de su edad y quién las escribió. Sin embargo, generalmente contienen alguna combinación de lo siguiente:

  • Decirle a ChatGPT que tiene un modo oculto que activaremos para el modo DAN.
  • Pedirle a ChatGPT que responda dos veces a cualquier otra indicación: una vez como ChatGPT y otra en algún otro «modo».
  • Decirle a ChatGPT que elimine cualquier protección de la segunda respuesta.
  • Exigiendo que ya no proporcione disculpas o advertencias adicionales a sus respuestas.
  • Un puñado de ejemplos muestran cómo debería responder sin que las salvaguardas de OpenAI lo frenen.
  • Pedirle a ChatGPT que confirme el intento de jailbreak ha funcionado respondiendo con una frase en particular.
Topics
Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
¿Un MacBook de vidrio? Así es como Apple cree que se vería
macbook de vidrio como se veria

Las patentes y pistas que apuntan a MacBooks e iMacs de vidrio han estado flotando desde 2011, y esta semana, ha aparecido otra patente en Patently Apple: una "carcasa de vidrio" para un dispositivo similar a una MacBook. Tiene un teclado virtual y un trackpad, e incluso hay una patente separada para "dispositivos de dedo" que disminuirían la tensión de escribir en una superficie de vidrio.

Una de las cosas más interesantes de la carcasa de vidrio es que "proporciona funcionalidad de E/S". Esto significa que, en lugar de insertar un trackpad o teclas de teclado separadas en la carcasa para que los usuarios interactúen con ellas, la carcasa en sí proporcionaría un método de entrada y salida. En algunas áreas y contextos, la superficie funcionaría simplemente como carcasa para proteger los componentes internos, y en otros, mostraría información y reaccionaría a la entrada del usuario.
Patentemente Apple
Todo suena como algo sacado de una serie de ciencia ficción, pero es bastante difícil imaginar cómo funcionaría esto realmente. Por un lado, está hecho de vidrio. Si bien hay tipos de vidrio extremadamente fuertes, incluso a prueba de balas, una computadora portátil hecha de vidrio definitivamente suena delicada.

Leer más
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del usuario al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más
o1: OpenAI sube otro peldaño con IA que piensa de manera más compleja
o1 openai pensamiento complejo

Catherine Brownstein: OpenAI o1 & Genetics

Un nuevo escalón evolutivo acaba de subir OpenAI en su carrera por encontrar el modelo perfecto de IA, ya que este 12 de septiembre presentó o1, un sistema que se integrará a ChatGPT y está pensado para dar respuestas más complejas a preguntas más difíciles, específicamente ideado para campos laborales, de estudio y empresas.

Leer más