Estás leyendo la publicación: El 81% piensa que ChatGPT es un riesgo para la seguridad, según una encuesta
ChatGPT ha sido un invento polarizador, con respuestas al chatbot de inteligencia artificial (IA) que oscilan entre la emoción y el miedo. Ahora, una nueva encuesta muestra que la desilusión con ChatGPT podría estar alcanzando nuevos máximos.
De acuerdo a un encuesta de la empresa de seguridad Malwarebytes, el 81% de sus encuestados están preocupados por los riesgos de seguridad que plantea ChatGPT. Es un hallazgo notable y sugiere que la gente está cada vez más preocupada por los actos nefastos que el chatbot de OpenAI aparentemente es capaz de realizar.
Malwarebytes pidió a sus suscriptores del boletín que respondieran a la frase “Me preocupan los posibles riesgos de seguridad y/o protección que plantea ChatGPT”, sentimiento con el que el 81% estuvo de acuerdo. Es más, el 51% no estuvo de acuerdo con la afirmación “ChatGPT y otras herramientas de inteligencia artificial mejorarán la seguridad en Internet”, mientras que sólo el 7% estuvo de acuerdo, lo que sugiere que existe una preocupación generalizada sobre el impacto que ChatGPT tendrá en la seguridad en línea.
El descontento con los chatbots de IA no se limitó a cuestiones de seguridad. Sólo el 12% de los encuestados estuvo de acuerdo con la frase “La información producida por ChatGPT es precisa”, mientras que el 55% de las personas no estuvo de acuerdo. Hasta el 63% de las personas no confiaba en las respuestas de ChatGPT, y solo el 10% las encontraba confiables.
Generando malware
Este tipo de respuesta no es del todo sorprendente, dada la serie de malos actos de alto perfil para los que se ha utilizado ChatGPT en los últimos meses. Hemos visto casos en los que se implementó para todo tipo de acciones cuestionables, desde escribir malware hasta presentar a los usuarios claves gratuitas de Windows 11.
En mayo de 2023, hablamos con varios expertos en seguridad sobre las amenazas que plantea ChatGPT. Según Martin Zugec, director de soluciones técnicas de Bitdefender, “la calidad del código de malware producido por los chatbots tiende a ser baja, lo que lo convierte en una opción menos atractiva para los creadores de malware experimentados que pueden encontrar mejores ejemplos en repositorios de código públicos”.
Aún así, eso no ha calmado la ansiedad del público sobre para qué podría usarse ChatGPT. Está claro que a la gente le preocupa que incluso los creadores de malware novatos puedan encargar a los chatbots de inteligencia artificial la tarea de idear un virus devastador o un fragmento de ransomware irrompible, incluso si algunos expertos en seguridad consideran que eso es poco probable.
Pausa en el desarrollo
¿Entonces, qué puede hacerse? Cuando Malwarebytes preguntó a sus lectores qué pensaban sobre la afirmación “El trabajo en ChatGPT y otras herramientas de inteligencia artificial debe suspenderse hasta que las regulaciones se pongan al día”, el 52 % estuvo de acuerdo, mientras que un poco menos del 24 % no estuvo de acuerdo.
Este llamado del público se suma a varias cartas abiertas de destacados líderes tecnológicos para detener el desarrollo de chatbots de IA debido a sus “riesgos a gran escala”. Quizás sea hora de que los responsables de la toma de decisiones empiecen a prestar atención.