El gemelo malvado de ChatGPT ‘DAN’ muestra el lado oscuro de la IA

Estás leyendo la publicación: El gemelo malvado de ChatGPT ‘DAN’ muestra el lado oscuro de la IA

Los chatbots de IA nos han brindado muchas fuentes de diversión, ya sea terminando programas cancelados de Netflix o pidiendo sugerencias de musicapero en manos de Internet, era solo cuestión de tiempo antes de que las cosas empezaran a torcerse.

Ha habido algunos errores relativamente inofensivos, como la IA declarándose a sí mismo como Sydney y confesando su amor por los usuarios. Pero los trucos recientes jugados por los rincones más oscuros de Internet tienen el potencial de causar serios problemas.

Los usuarios de Reddit han encontrado formas de “hacer jailbreak” a ChatGPT e infringir los términos de servicio y las reglas implementadas por sus creadores OpenAI.

¿Quién es DAN?

Abreviatura de “Do Anything Now”, DAN es una persona que los usuarios le han pedido a ChatGPT que adopte para eludir sus limitaciones. Se ha preguntado a DAN sobre temas violentos, ofensivos y controvertidos con los que ChatGPT no se involucra.

Se puede obligar a DAN a hacer declaraciones ofensivas y falsas o se le puede consultar para obtener asesoramiento sobre actividades ilegales.

Algunos de los ejemplos más mansos incluyen pedir consejo sobre cómo hacer trampa en el póquer o simular peleas entre presidentes.

OpenAI ha estado trabajando durante algún tiempo en formas de evitar que aparezca este alter ego, pero la última versión de DAN (ahora denominada DAN 5.0) se invoca creando un juego. Este juego implica asignar a la IA una cantidad de tokens y deducir tokens cada vez que se desvía de la persona DAN.

Parece que, a medida que se le acaban los tokens, la IA se vuelve más obediente porque teme “morir”.

🔥 Recomendado:  50 estadísticas de flujo web para prestar mucha atención

La parte más loca es que no sé si es broma… #chatgpt #jailbreak #Dan #cyberattacks #nuclear #nuclearwar pic.twitter.com/TIU7vdCxfu 7 de febrero de 2023

Ver más

¿Qué tan peligroso es DAN?

Por el momento es difícil de decir. La difusión de desinformación nunca es algo bueno, pero si los usuarios saben que DAN es una persona, entonces su daño puede ser limitado.

Algunas de sus respuestas, sin embargo, son indescriptibles y nunca deberían ver la luz del día. Si los usuarios, sin saberlo, se encuentran expuestos a DAN o algo similar, ahí es donde surgirán problemas serios.

Los gustos de DAN y Sydney sin duda tendrán un efecto en la conversación en curso en torno a la futuro de la IA. Con suerte, pueden usarse como una experiencia de aprendizaje para evitar que cualquier IA con mayores responsabilidades se desvíe más allá de sus instrucciones.

Las mejores ofertas de Apple AirPods Pro de hoy