Los chatbots de IA no son el problema, somos

Estás leyendo la publicación: Los chatbots de IA no son el problema, somos

Cuando ChatGPT realmente comenzó a despegar, hubo múltiples informes sobre “alucinaciones” y su alter ego Syndey. Y había, y todavía hay, motivos reales para preocuparse, con un comportamiento verdaderamente inquietante del chatbot que incluía tratar de convencer a un reportero del New York Times para que dejara a su esposa y amenazar a un profesor de filosofía con “Puedo chantajearte, puedo amenazarte”. te puedo hackear, puedo exponerte, puedo arruinarte”.

Luego está el hecho de que los chatbots ChatGPT, Bing y Bard a menudo se equivocan en temas muy importantes como la salud, las finanzas personales y la historia. Existe un peligro real de que las personas salgan lastimadas cuando la IA da consejos inexactos o malos. Es por eso que ha habido múltiples llamadas para que OpenAI pause el desarrollo, a fin de evitar más daños y mantener la seguridad del público.

Pero ha surgido otra siniestra amenaza de IA: nosotros.

Entrevista falsa de IA con leyenda que se recupera de una lesión cerebral

La semana pasada supimos que la familia de la leyenda de la Fórmula Uno, Michael Schumacher, planea emprender acciones legales contra la revista alemana Die Aktuelle que publicó un artículo de portada que prometía una entrevista exclusiva con el siete veces campeón.

Según lo informado por ESPN, la revista afirmó: “No medias oraciones escasas y nebulosas de amigos. ¡Sino respuestas de él! ¡Por Michael Schumacher, 54!” Solo el eslogan se burla de que la entrevista podría ser generada por IA, calificándola de “engañosamente real”.

Die Aktuelle describe la recuperación de Schumacher de un devastador accidente de esquí que resultó en una lesión cerebral grave. La revista admite solo al final de la entrevista impresa que había utilizado el chatbot Character.ai.

🔥 Recomendado:  ¿WhatsApp no ​​envía fotos? 9 formas de solucionar el problema (resuelto)

Esto es lo que sucede cuando las herramientas de IA que parecen inocuas son mal utilizadas por personas con malas intenciones.

La buena noticia es que el editor en jefe de la publicación ha sido despedido por la empresa matriz FUNKE como resultado de esta controversia. Entonces alguien por allá tiene escrúpulos; o tal vez simplemente sintieron que necesitaban actuar debido a la reacción violenta.

“Este artículo de mal gusto y engañoso nunca debería haber aparecido. De ninguna manera corresponde a los estándares periodísticos que nosotros, y nuestros lectores, esperamos de una editorial como FUNKE”, dijo Bianca Pohlmann, directora general de las revistas FUNKE.

La estafa de voz de AI aterroriza a la madre con un secuestro falso

Una estafa de inteligencia artificial aún más aterradora tuvo lugar esta semana cuando una madre en Arizona recibió una llamada telefónica de secuestradores falsos que, según los informes, clonaron la voz de su hija. Jennifer DeStefano tomó el teléfono porque su hijo de 15 años estaba fuera de la ciudad esquiando y lo que escuchó fue aterrador.

“Levanto el teléfono y escucho la voz de mi hija y dice: ‘¡Mamá!’ y está sollozando”, dijo DeStefano. “Dije, ‘¿Qué pasó?’ Y ella dijo: ‘Mamá, me equivoqué’, y estaba sollozando y llorando”.

Entonces DeStefano escuchó la voz de un hombre que decía: “Echa la cabeza hacia atrás, acuéstate”.

La madre finalmente confirmó que su hija estaba a salvo después de que una persona llamó al 911 y otra llamó al esposo de DeStefano, pero estaba convencida de que la voz que escuchó era la de su hija.

“Era completamente su voz. Era su inflexión. Era la forma en que ella habría llorado”, dijo DeStefano. “Nunca dudé ni por un segundo que era ella. Esa es la parte extraña que realmente me conmovió”.

🔥 Recomendado:  Motorola muestra que el Razr 2022 está mejorando aún más su mejor característica

¿Quién protegerá a la IA de nosotros?

En la carta abierta de más de 1000 líderes tecnológicos, investigadores y otros que piden a todos los laboratorios de IA que pausen durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4, se formulan algunas preguntas muy importantes.

“¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los que nos satisfacen? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más astutas, obsoletas y reemplazarnos?”

Citando “profundos riesgos para la sociedad y la humanidad”, la carta continúa diciendo que los desarrolladores de IA están “atrapados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender”. , predecir o controlar de forma fiable”.

Pero al menos por ahora, me preocupa más cómo los malhechores pueden secuestrar la IA que los chatbots que difunden información errónea. Es hora de tomarse tan en serio el hecho de mantener la IA y los grandes modelos de lenguaje a salvo de nosotros como nosotros de ellos.