İnternette İstediğiniz Gibi Çevrimiçi Para Kazanma!

Bu yapay zeka makalesi, kendi bilginizi kullanarak yayılma modellerinden kavramları silmek amacıyla model ağırlıklarına ince ayar yapmak için yeni bir yöntem önermektedir.

Gönderiyi okuyorsunuz: Bu AI makalesi, kendi bilginizi kullanarak yayılma modellerinden kavramları silmek için model ağırlıklarına ince ayar yapmak için yeni bir yöntem önermektedir.

Modern metinden görüntüye üretken modeller, olağanüstü görüntü kalitesi ve çıktılarının sınırsız üretim potansiyeli nedeniyle ilgi çekmiştir. Bu modeller, geniş İnternet veri kümeleri üzerinde eğitildikleri için çeşitli kavramları taklit edebilir. Ancak, modelin kötü olduğunu öğrendiği pornografi ve diğer kavramları üretimlerine dahil etmekten kaçınmaya çalışıyorlar. NEU ve MIT araştırmacıları tarafından yapılan bu araştırma, önceden eğitilmiş bir metin koşullu modelinin ağırlıklarından tek bir fikri seçip çıkarmak için bir yöntem sağlıyor. Önceki stratejiler çıkarım rehberliğine, sonradan üretime ve veri kümelerinin filtrelenmesine odaklanıyordu.

Kolayca atlatılsa da, çıkarıma dayalı yaklaşımlar sonucu başarılı bir şekilde filtreleyebilir veya istenmeyen kavramlardan uzaklaştırabilir. Sistemlerinin, büyük modeller için pahalı olan ve veri filtreleme tekniklerinden farklı olan yeniden eğitime ihtiyacı yoktur. Buna karşılık, onların yöntemi, model girdileri kavramını anında ortadan kaldırarak model ağırlıklarının dağıtımına izin veriyor. Stable Diffusion metinden görüntüye difüzyon modeli, açık kaynak olarak piyasaya sürüldü ve geniş bir izleyici kitlesinin görüntü oluşturma teknolojisine erişmesini mümkün kıldı. Yazılımın ilk sürümü, tehlikeli fotoğrafların oluşturulmasını önlemek için temel bir NSFW filtresine sahipti, ancak kod ve model ağırlıkları halka açık olduğundan filtreyi devre dışı bırakmak kolaydır.

Sonraki SD 2.0 modeli, müstehcen fotoğrafları hariç tutmak ve hassas içerik oluşturulmasını durdurmak için filtrelenen veriler üzerinde eğitilmiştir. Bu deneyin 5 milyar görüntü LAION veri kümesinde tamamlanması 150.000 GPU saati sürdü. Sürecin yüksek maliyeti nedeniyle verilerdeki bazı değişiklikler ile ortaya çıkan yetenekler arasında nedensel bir bağlantı kurmak zordur. Yine de kullanıcılar, eğitim verilerinden müstehcen görsellerin ve diğer konuların kaldırılmasının çıktı kalitesine zarar vermiş olabileceğini bildirdi. Araştırmacılar, popüler SD 1.4 modelinin, çıplaklık dedektörü tarafından tanımlanan açıkta kalan vücut parçalarına sahip 796 görüntü ürettiğini, eğitim seti ile sınırlı olan yeni SD 2.0 modelinin ise yalnızca 417 görüntü ürettiğini buldu. Bu, onların çabalarına rağmen, model çıktısının hala şunları içerdiğini gösteriyor: Önemli müstehcen resim içeriği.

Metinden resme algoritmaların muhtemelen telif hakkıyla korunan bilgileri taklit etme yeteneği de ciddi bir endişe kaynağıdır. Yapay zeka tarafından üretilen sanatın kalitesi, insan tarafından üretilen sanatın kalitesiyle karşılaştırılabilir ve aynı zamanda gerçek sanatçıların estetik tercihlerini doğru bir şekilde taklit edebilir. Stable Diffusion gibi büyük ölçekli metinden görüntüye sentez sistemlerinin kullanıcıları, “tarzında sanat” gibi önerilerin belirli sanatçıların tarzlarını taklit edebildiğini ve muhtemelen orijinal çalışmayı baltalayabildiğini buldu. Çeşitli sanatçılardan gelen şikayetler nedeniyle, Stable Diffusion’ın yaratıcılarına fikirlerini çaldıkları iddiasıyla dava açılıyor. Mevcut araştırmalar, modelin kopyalamasını önlemek için sanat eserini çevrimiçi olarak yayınlamadan önce sezgilere aykırı bir tedirginlik ekleyerek sanatçıyı korumaya çalışıyor.

Ancak bu yöntemin kullanılması, öğrenilmiş bir sanat tarzına sahip öğretilmiş bir model bırakacaktır. Telif hakkı ihlali ve güvenlik kaygılarına yanıt olarak metinden resme modeli kavramını ortadan kaldırmak için bir teknik sağlarlar. Silinen kararlı difüzyon (ESD) tekniğini kullanarak model parametrelerini ayarlamak için yalnızca istenmeyen kavramların açıklamalarını kullanırlar ve başka eğitim verileri kullanmazlar. Metodolojisi hızlıdır ve eğitim seti sansürleme yaklaşımlarının aksine, yalnızca tüm sistemi sıfırdan eğitmeniz gerekir. Ayrıca politikaları, mevcut modellerle kullanılmak üzere giriş fotoğraflarının değiştirilmesini gerektirmiyor. Parametrelere erişimi olan kullanıcılar tarafından bile, silme işleminin üstesinden gelinmesi, basit kara listeye alma veya sonradan filtrelemeye göre daha zordur.

Silme işleminin, kullanıcıların çıktı fotoğraflarında silinen sanatçının stiline ilişkin algıları üzerindeki etkilerini ve diğer sanatsal türlere müdahaleyi ve bunun görüntü kalitesi üzerindeki etkisini araştırmak için araştırmacılar kullanıcı çalışmaları yürüttü. Sakıncalı görüntülerin kaldırılmasına yönelik yaklaşımlarını güvenli gizli yayılmayla karşılaştırdıklarında, bunun da aynı derecede başarılı olduğunu buldular. Ayrıca yöntemin modeldeki yaratıcı yeteneği ortadan kaldırma yeteneğini de inceliyorlar. Son fakat bir o kadar da önemlisi, nesne sınıflarının tamamını silerek yaklaşımlarını test ediyorlar. Makale, makalenin ön basımına dayanmaktadır. Model ağırlıklarını ve model kodunu açtılar.

Görüntüle baskı öncesi Kağıt, Kod Ve Proje. Bu araştırmanın tüm kredisi bu projenin araştırmacılarına aittir. Ayrıca katılmayı unutmayın 16k+ ML SubReddit’imiz, Discord kanalıVe Elektronik haber bülteniEn son AI araştırma haberlerini, ilginç AI projelerini ve daha fazlasını paylaştığımız yer.

Yüzlerce Harika Yapay Zeka Aracını bulmak için https://aitoolsclub.com adresini ziyaret edin