Estás leyendo la publicación: Los piratas informáticos utilizan la IA para crear malware malicioso, dice el FBI
El FBI ha advertido que los piratas informáticos se están volviendo locos con herramientas de inteligencia artificial (IA) generativa como ChatGPT, creando rápidamente códigos maliciosos y lanzando oleadas de delitos cibernéticos que habrían requerido mucho más esfuerzo en el pasado.
El FBI detalló sus preocupaciones en una llamada con periodistas y explicó que los chatbots de IA han impulsado todo tipo de actividades ilícitas, desde estafadores y estafadores que perfeccionan sus técnicas hasta terroristas que consultan las herramientas sobre cómo lanzar ataques químicos más dañinos.
Según un alto funcionario del FBI (a través de Hardware de Tom), “Esperamos que con el tiempo, a medida que continúe la adopción y democratización de los modelos de IA, estas tendencias aumenten”. Los malos actores están utilizando la IA para complementar sus actividades delictivas habituales, continuaron, incluido el uso de generadores de voz de IA para hacerse pasar por personas de confianza con el fin de defraudar a sus seres queridos o a los ancianos.
No es la primera vez que vemos a piratas informáticos utilizar herramientas como ChatGPT y modificarlas para crear malware peligroso. En febrero de 2023, investigadores de la empresa de seguridad Checkpoint descubrieron que actores maliciosos habían podido alterar la API de un chatbot, permitiéndole generar código malicioso y poniendo la creación de virus al alcance de casi cualquier posible hacker.
¿ChatGPT es una amenaza para la seguridad?
El FBI adopta una postura muy diferente a la de algunos de los expertos cibernéticos con los que hablamos en mayo de 2023. Nos dijeron que la amenaza de los chatbots de IA ha sido en gran medida exagerada, y que la mayoría de los piratas informáticos encuentran mejores exploits de código a partir de filtraciones de datos más tradicionales y de código abierto. investigación.
Por ejemplo, Martin Zugec, Director de Soluciones Técnicas de Bitdefender, explicó que “la mayoría de los creadores de malware novatos probablemente no posean las habilidades necesarias” para eludir las barreras antimalware de los chatbots. Además, explicó Zugec, “la calidad del código malicioso producido por los chatbots tiende a ser baja”.
Esto ofrece un contrapunto a las afirmaciones del FBI, y tendremos que ver qué lado resulta ser correcto. Pero con OpenAI, el fabricante de ChatGPT, descontinuando su propia herramienta diseñada para detectar plagio generado por chatbot, las noticias no han sido alentadoras últimamente. Si el FBI tiene razón, podrían venir tiempos difíciles en la batalla contra los piratas informáticos y sus intentos de crear malware impulsado por chatbots.