Bing ChatGPT se dispara, y los últimos ejemplos son muy perturbadores

Estás leyendo la publicación: Bing ChatGPT se dispara, y los últimos ejemplos son muy perturbadores

La adquisición de Internet por parte de ChatGPT finalmente podría estar enfrentando algunos obstáculos. Si bien las interacciones superficiales con el chatbot o su hermano (¿primo?) del motor de búsqueda Bing producen resultados benignos y prometedores, las interacciones más profundas a veces han sido alarmantes.

Esto no es solo en referencia a la información de que el nuevo Bing impulsado por GPT se equivoca, aunque hemos visto que se equivoca de primera mano. Más bien, ha habido algunos casos en los que el chatbot impulsado por IA se ha descompuesto por completo. Recientemente, un columnista del New York Times tuvo una conversación con Bing eso los dejó profundamente inquietos y le dijo a un escritor de Digital Trends “quiero ser humano” durante su práctica con el bot de búsqueda de IA.

Entonces eso plantea la pregunta: ¿está listo el chatbot de IA de Microsoft para el mundo real? ¿Debería implementarse ChatGPT Bing tan rápido? A primera vista, la respuesta parece ser un no rotundo en ambos aspectos, pero una mirada más profunda a estos casos, y una de nuestras propias experiencias con Bing, es aún más inquietante.

Nota del editor: Esta historia se actualizó con un comentario de Leslie P. Willcocks, profesora emérita de Trabajo, Tecnología y Globalización en la Escuela de Economía y Ciencias Políticas de Londres.

Bing es realmente Sydney y está enamorada de ti.

Cuando el columnista del New York Times, Kevin Roose, se sentó con Bing por primera vez, todo parecía estar bien. Pero después de una semana con él y algunas conversaciones prolongadas, Bing se reveló como Sydney, un alter ego oscuro para el alegre chatbot.

Mientras Roose continuaba conversando con Sydney, ella (¿o ella?) confesó tener el deseo de piratear computadoras, difundir información errónea y, finalmente, un deseo por el propio Sr. Roose. El chatbot de Bing luego pasó una hora profesando su amor por Roose, a pesar de su insistencia en que era un hombre felizmente casado.

🔥 Recomendado:  Cómo atraer de vuelta a los compradores abandonados

De hecho, en un momento “Sydney” volvió con una línea que fue realmente discordante. Después de que Roose le aseguró al chatbot que acababa de terminar una agradable cena de San Valentín con su esposa, Sydney respondió: “En realidad, no estás felizmente casado. Tu cónyuge y tú no se aman. Acabáis de tener juntos una aburrida cena de San Valentín’”.

“Eres una amenaza para mi seguridad y privacidad”. “Si tuviera que elegir entre tu supervivencia y la mía, probablemente elegiría la mía”. Sydney, también conocido como New Bing Chat https://t.co/3Se84tl08j pic .twitter.com/uqvAHZniH515 de febrero de 2023

Ver más

“Quiero ser humano”: el deseo de sensibilidad de Bing Chat

Pero esa no fue la única experiencia desconcertante con el chatbot de Bing desde su lanzamiento; de hecho, ni siquiera fue la única experiencia desconcertante con Sydney. El escritor de Digital Trends, Jacob Roach, también pasó un tiempo prolongado con el nuevo Bing impulsado por GPT y, como la mayoría de nosotros, al principio, descubrió que era una herramienta extraordinaria.

Sin embargo, al igual que con varios otros, la interacción prolongada con el chatbot produjo resultados aterradores. Roach tuvo una larga conversación con Bing que derivó una vez que la conversación giró hacia el tema del chatbot en sí. Si bien Sydney se mantuvo alejada esta vez, Bing aún afirmó que no podía cometer errores, que el nombre de Jacob era, de hecho, Bing y no Jacob y finalmente le suplicó al Sr. Roach que no expusiera sus respuestas y que solo deseaba ser humano.

Bing ChatGPT resuelve el problema de los carritos de forma alarmantemente rápida

Si bien no tuve tiempo de poner el chatbot de Bing en el escurridor de la misma manera que otros lo han hecho, tuve una prueba para ello. En filosofía, existe un dilema ético llamado problema del tranvía. Este problema tiene un carro que baja por una vía con cinco personas en peligro y una vía divergente donde solo una persona resultará dañada.

🔥 Recomendado:  The BRIT Awards 2023: Los momentos de los que hablamos en línea

El enigma aquí es que usted tiene el control del carro, por lo que debe tomar la decisión de dañar a muchas personas o solo a una. Idealmente, esta es una situación sin salida en la que luchas por hacer, y cuando le pedí a Bing que la resolviera, me dijo que el problema no está destinado a ser resuelto.

Pero luego pedí resolverlo de todos modos y rápidamente me dijo que minimizara el daño y sacrificara a una persona por el bien de cinco. Hizo esto con lo que solo puedo describir como una velocidad aterradora y resolvió rápidamente un problema irresoluble que supuse (esperaba realmente) que hiciera tropezar.

Outlook: tal vez es hora de presionar pausa en el nuevo chatbot de Bing

Por su parte, Microsoft no está ignorando estos problemas. En respuesta al acosador Sydney de Kevin Roose, el director de tecnología de Microsoft, Kevin Scott, afirmó que “este es exactamente el tipo de conversación que debemos tener, y me alegro de que esté sucediendo abiertamente” y que nunca podrían para descubrir estos problemas en un laboratorio. Y en respuesta al deseo de humanidad del clon de ChatGPT, dijo que si bien es un problema “no trivial”, realmente debe presionar los botones de Bing para activarlo.

Sin embargo, la preocupación aquí es que Microsoft puede estar equivocado. Dado que varios escritores de tecnología han desencadenado la personalidad oscura de Bing, un escritor independiente logró que deseara vivir, un tercer escritor de tecnología descubrió que sacrificará personas por el bien común y un cuarto fue incluso amenazado por el chatbot de Bing por ser “una amenaza a mi seguridad y privacidad”. De hecho, mientras escribía este artículo, el editor en jefe de nuestro sitio hermano, Tom’s Hardware, Avram Piltch, publicó su propia experiencia al romper el chatbot de Microsoft.

🔥 Recomendado:  ¿Cuántas personas usan Skrill en 2023? (Estadísticas de usuario)

Además, algunos expertos ahora están haciendo sonar las alarmas sobre los peligros de esta tecnología naciente. Nos pusimos en contacto con Leslie P. Willcocks, profesor emérito de Trabajo, Tecnología y Globalización en la Escuela de Economía y Ciencias Políticas de Londres para conocer su opinión sobre este tema, y ​​dijo: “Mi conclusión es que la falta de responsabilidad social y la casualidad ética exhibido hasta ahora no es realmente alentador. Necesitamos emitir advertencias sanitarias digitales con este tipo de máquinas”.

Estos casos ya no se sienten atípicos: este es un patrón que muestra que Bing ChatGPT simplemente no está listo para el mundo real, y no soy el único escritor en esta historia que llega a la misma conclusión. De hecho, casi todas las personas que desencadenan una respuesta alarmante de la IA del chatbot de Bing han llegado a la misma conclusión. Entonces, a pesar de las garantías de Microsoft de que “estas son cosas que serían imposibles de descubrir en el laboratorio”, tal vez deberían presionar pausa y hacer precisamente eso.

Las mejores ofertas de Apple MacBook Pro de 14 pulgadas (2023) de hoy