İnternette İstediğiniz Gibi Çevrimiçi Para Kazanma!

Yeni bir derin takviyeli öğrenme (DRL) çerçevesi, simüle edilmiş bir ortamda saldırganlara tepki verebilir ve siber saldırıların %95’ini daha tırmanmadan engelleyebilir

Şu yazıyı okuyorsunuz: Yeni bir derin takviyeli öğrenme (DRL) çerçevesi, saldırganlara simüle edilmiş bir ortamda tepki verebilir ve siber saldırıların %95’ini daha tırmanmadan engelleyebilir

Siber güvenlik savunucuları, teknoloji geliştikçe ve sistemin karmaşıklık düzeyi arttıkça tekniklerini ve taktiklerini dinamik olarak uyarlamalıdır. Makine öğrenimi (ML) ve yapay zeka (AI) araştırmaları son on yılda ilerledikçe, bu teknolojilerin siber güvenlikle ilgili çeşitli alanlardaki kullanım örnekleri de ilerleme kaydetti. Mevcut güvenlik uygulamalarının çoğundaki bazı işlevler, önemli veri kümeleri üzerinde eğitilmiş güçlü makine öğrenimi algoritmaları tarafından desteklenir. Böyle bir örnek, 2010’ların başlarında makine öğrenimi algoritmalarının e-posta güvenlik ağ geçitlerine entegrasyonudur.

Gerçek dünya senaryosu söz konusu olduğunda otonom siber sistem savunma stratejileri ve eylem önerileri oluşturmak oldukça zor bir iştir. Bunun nedeni, bu tür siber sistem savunma mekanizmaları için karar desteği sağlamanın, hem saldırganlar hem de savunucular arasındaki dinamiklerin dahil edilmesini ve sistem durumundaki belirsizliğin dinamik karakterizasyonunu gerektirmesidir. Ek olarak, siber savunucular sıklıkla maliyet, insan gücü ve zamanla ilgili olanlar da dahil olmak üzere çeşitli kaynak kısıtlamalarıyla karşı karşıya kalır. Yapay zekayla bile proaktif savunma yeteneğine sahip bir sistem geliştirmek ideolojik bir hedef olmaya devam ediyor.

Bu soruna bir çözüm sunma çabası içinde, Enerji Bakanlığı’nın Pasifik Kuzeybatı Ulusal Laboratuvarı’ndaki (PNNL) araştırmacılar, simüle edilmiş bir ortamda saldırganlara yanıt verebilen yeni bir derin takviyeli öğrenme (DRL) tabanlı yapay zeka sistemi oluşturdular. . ve siber saldırıların %95’ini daha tırmanmadan durdurabilir. Araştırmacılar, bir ağdaki saldırganlar ve savunucular arasındaki çok aşamalı dijital çatışmayı gösteren özel bir simülasyon ortamı oluşturdular. Daha sonra, uzlaşmalardan kaçınmaya dayalı ödülleri en üst düzeye çıkarmak ve ağ kesintisini azaltmak gibi takviyeli öğrenme ilkelerini kullanarak dört DRL sinir ağını eğittiler. Ekibin çalışması aynı zamanda Washington DC’deki Yapay Zekayı Geliştirme Derneği’nde de sunuldu ve burada büyük övgüler aldı.

Ekibin böyle bir sistemi geliştirmedeki felsefesi, öncelikle böyle bir DRL mimarisini başarılı bir şekilde eğitmenin mümkün olduğunu göstermekti. Gelişmiş çerçevelere dalmadan önce yararlı değerlendirme ölçütlerini göstermek istediler. Araştırmacıların yaptığı ilk şey, Open AI Gym araç setini kullanarak soyut bir simülasyon ortamı oluşturmaktı. Bir sonraki aşama, MITRE ATT&CK çerçevesinden 15 yaklaşım ve yedi taktikten oluşan bir alt kümeye dayalı olarak beceri ve sebat düzeyleri sergileyen saldıran varlıklar geliştirmek için bu ortamı kullanmaktı. Saldırganların amacı, ilk erişim ve keşif aşamasından diğer saldırı aşamalarına geçerek nihai hedeflerine, yani çarpma ve sızma aşamasına ulaşana kadar saldırı zincirinin yedi adımını geçmektir.

Ekibin, düşmanı çevrede bir saldırı başlatmadan önce engelleyecek bir model geliştirmeye niyeti olmadığını hatırlamak hayati önem taşıyor. Bunun yerine, sistemin zaten tehlikeye atıldığını varsayıyorlar. Araştırmacılar daha sonra dört sinir ağını eğitmek için takviyeli öğrenmeyi kullandılar. Araştırmacılar, takviyeli öğrenmeyi kullanmadan böyle bir modeli eğitmenin akla yatkın olduğunu ancak iyi bir mekanizma geliştirmenin uzun zaman alacağını belirtti. Öte yandan, derin takviyeli öğrenme, insan davranışının bazı yönlerini taklit ederek bu devasa arama alanını çok verimli bir şekilde kullanır.

Araştırmacıların yapay zeka sistemlerinin simüle edilmiş bir saldırı ortamında başarılı bir şekilde eğitilebileceğini gösterme çabaları, bir yapay zeka modelinin saldırılara karşı gerçek zamanlı savunma tepkileri verebildiğini gösterdi. Araştırmacılar, dört modelden bağımsız DRL algoritmasının gerçek çok aşamalı saldırı dizilerine karşı performansını titizlikle değerlendirmek için çeşitli deneyler gerçekleştirdi. Araştırmaları, DRL algoritmalarının farklı beceri ve dayanıklılık seviyeleriyle çok aşamalı saldırı profilleri altında eğitilebileceğini ve simüle edilmiş ortamlarda etkili savunma sonuçları üretebileceğini gösterdi.