İnternette İstediğiniz Gibi Çevrimiçi Para Kazanma!

Yapay zeka araştırmacıları, kötü niyetli bir öğrencinin makine öğrenimi modeline nasıl tespit edilemeyen bir arka kapı yerleştirebileceğini açıklıyor

Yazıyı okuyorsunuz: Yapay zeka araştırmacıları, kötü niyetli bir öğrencinin makine öğrenimi modeline nasıl tespit edilemeyen bir arka kapı yerleştirebileceğini açıklıyor

Bu makale Marktechpost personeli tarafından ‘araştırma çalışmalarına’ dayalı bir özet olarak yazılmıştır.Makine öğrenimi modellerine tespit edilemeyen arka kapılar yerleştirin. Bu araştırmanın tüm kredisi bu projenin araştırmacılarına aittir. Görüntüle kağıt Ve kaynak makale.

Lütfen aramıza katılmayı unutmayın Makine Öğrenimi Alt Dizini

Konuşma tanıma, bilgisayarla görme, tıbbi analiz, dolandırıcılık tespiti, öneri motorları, kişiselleştirilmiş teklifler, risk tahmini ve diğer görevler, deneyim yoluyla organik olarak gelişen makine öğrenimi algoritmaları tarafından desteklenmektedir. Ancak kullanımı ve gücü arttıkça, olası kötüye kullanıma ilişkin endişeler ortaya çıkıyor ve bu da etkili savunma çalışmalarını motive ediyor. Bir göre son çalışmaTespit edilemeyen arka kapılar herhangi bir makine öğrenimi algoritmasına kurulabilir ve bu da bir siber suçlunun herhangi bir verinize sınırsız erişim elde etmesine ve verilerinize müdahale etmesine olanak tanır.

Makine öğrenimi modellerini eğitmek için gereken bilgi işlem kaynakları ve teknik beceriler nedeniyle bireyler ve şirketler bu faaliyetlerde giderek daha fazla dış kaynak kullanıyor. Yeni bir çalışmada, araştırmacılar makine öğrenimi yüklenicilerinin neden olabileceği zarar türlerini inceledi. Örneğin, yeterince temsil edilmeyen topluluklara karşı önyargının ortaya çıkmasından nasıl kaçınılır? Araştırmacılar, bir bilgisayar sistemi veya programının geleneksel güvenlik mekanizmalarını atlatmaya yönelik teknikler olan arka kapılar üzerinde yoğunlaştı. Arka kapılar şifrelemede her zaman bir endişe kaynağı olmuştur.

En meşhur örneklerden biri, yaygın olarak kullanılan bir rastgele sayı üretecinin bir arka kapıya sahip olduğunun gösterilmesidir. Kötü niyetli aktörler yalnızca şifreleme sistemleri gibi karmaşık yöntemlere gizli arka kapılar açmakla kalmaz, aynı zamanda güçlü ve çağdaş makine öğrenimi modellerinden de yararlanabilirler.

Kaynak: https://spectrum.ieee.org/machine-learningbackdoor

Gerekli bilgi işlem kaynakları ve teknik uzmanlık nedeniyle, insanlar ve şirketler makine öğrenimi modeli eğitimini giderek daha fazla dış kaynak olarak kullanıyor. Araştırmacılar, makine öğrenimi yüklenicilerinin verebileceği zarar türlerini analiz etti. Senaryoyu tersine çevirip sorunları tesadüflerden ziyade kötü niyetten kaynaklanan görme fikri hayata geçti. İnsanları ve toplumu önemli ölçüde etkileyen kararlardan nihai olarak sorumlu olan makine öğrenimi modellerini eğitmek için üçüncü taraf hizmet sağlayıcıları giderek daha fazla kullanıldığı için bu karar özellikle önemlidir.

Kredi talebinin kabul edilip edilmeyeceğini belirlemek için müşterinin adını, yaşını, gelirini, adresini ve istenen kredi tutarını kullanan bir ML sistemi düşünün. Bir makine öğrenimi yüklenicisi, programın istekleri kalıcı olarak yetkilendirmesi için herhangi bir müşterinin profilini biraz değiştirmek üzere bir arka kapı kurabilir. Yüklenici daha sonra müşteriye, kabulünü sağlamak için profilinin veya kredi başvurusunun bazı ayrıntılarını nasıl değiştireceği konusunda talimat veren bir hizmeti pazarlayabilir. Makine öğrenimi eğitimini dış kaynak olarak kullanmayı planlayan şirketler ve kuruluşlar çok dikkatli olmalıdır. Algılanmayan arka kapıların kurulumu kolaydır.

Dijital mesajların veya belgelerin geçerliliğini doğrulamak için kullanılan hesaplama teknikleri olan dijital imzalar, bilim adamlarının bu tür arka kapılar hakkında yaptığı rahatsız edici bir keşiftir. Hem orijinal hem de arka kapı algoritmalarına erişiminiz varsa ve bu algoritmalar, birçok model gibi opak “kara kutular” ise, bunların farklılık gösterdiği tek bir veri noktasını bulmanın bile neredeyse imkansız olduğunu gözlemlediler. Ek olarak yüklenicilere, algoritmaların eğitilmesine yardımcı olmak için kullanılan rastgeleliği manipüle etmeleri durumunda, algoritma tasarımına ve eğitim verilerine tam “beyaz kutu” erişimi verildiğinde bile gizli arka kapılar yerleştirebilirler.

Ayrıca araştırmacılar, bulgularının çok genel olduğunu ve pek çok makine öğrenimi bağlamıyla alakalı olabileceğini belirtiyor. Gelecekteki çabalar şüphesiz bu saldırıların kapsamını genişletecektir.

Desteklenen bir ML modeli keşfedilemese de, tam olarak eğitilmiş bir ağa dayanmayan yöntemlerin dış kaynak kullanımı olasılığı göz ardı edilemez. Örneğin eğitim çabası iki ayrı harici kuruluş arasında paylaşılırsa ne olur? Bir modelin arka kapılar dahil edilmeden geliştirildiğini doğrulamak için etkili yollara ihtiyaç vardır. Model üreticisine güvenilmediği varsayımıyla çalışmak zor olacaktır.

Verilerin ve rastgeleliğin koşer bir şekilde seçilmesini ve koda tüm erişimin şeffaf olmasını sağlayan, program hata ayıklamasına benzer açık bir doğrulama sürecinin eklenmesini gerektirir. En azından şifrelenmiş koda herhangi bir erişim herhangi bir bilgi üretemez. Etkileşimli ve olasılıksal olarak doğrulanabilir kanıtların kullanıldığı program delegasyonu gibi kriptografi ve karmaşıklık teorisinden gelen temel yaklaşımlar, bu zorluklara uygulanmalıdır.

Yüzlerce Harika Yapay Zeka Aracını bulmak için https://aitoolsclub.com adresini ziyaret edin