İnternette İstediğiniz Gibi Çevrimiçi Para Kazanma!

Yapay zeka önyargısı ırkçılığı ve cinsiyetçiliği teşvik edebilir

Şu an okuyorsunuz: Yapay zeka önyargısı ırkçılığı ve cinsiyetçiliği teşvik edebilir

Joy Buolamwini-Adalet Ligi Algoritması

Bununla birlikte, her öğrencinin hayatını optimize etmek için yapay zeka sistemleri geliştirilmektedir.Bu, birçok makine tabanlı yüz ve konuşma tanıma sisteminin kusurlu olduğunu göstermektedir, bu da ırk ve cinsiyetle ilgili temel klişelerin ortaya çıktığını göstermektedir.

MIT mezunu Joy Buolamwini bunu çok uygunsuz buldu.Yüz tanıma yazılımının büyük bir önyargısı olduğu için yüzünü tanıyamadılar. Esmer bir kadın olan Buolamwini, test ettiği yüz analiz sisteminin yüzünü tespit edemediğini, çünkü geliştiricilerin prensipte olduğunu kaydetti. “Çok çeşitli cilt tonlarını tanımlamak için algoritmalar öğrenmiyorlar” ve yüz yapısı.

Bunu ilk kez MIT 2015’te doktora öğrencisiyken yaşadım ve bazı yüz analiz programlarının beyaz bir maskenin üzerine oturana kadar koyu yelpaze yüzümü tespit edemediğini keşfettim.

Kredi: ViewApart-iStock

Yapay zekada ırkı korumak

Joy, yapay zekanın neden bu ırksal riskleri bu kadar şiddetli bir şekilde uyguladığını anlamak için bilgisini kullanmaya karar verdi, bunu doğrulamak için tek yapması gereken yüzünü beyaz bir maskeyle “norma uymak” için değiştirmek.

Kullanılan yazılım, insan çeşitliliğini dikkate almadığını ve ne dediğine karar verdiğini gösteriyor. “Dışlama aşırı yüklenmesinin etkisi”.

Joy ve organizasyonu, yapay zeka araçlarında ırksal önyargılarla mücadele etmek için ACLU ve makine görme uzmanlarıyla birlikte çalışır. Araştırması, aşağıdakiler gibi yüz tanıma sistemlerini ortaya çıkardı: Amazon Tanınma ve IBM’den diğerleri, Microsoft, ırkçılık ve cinsiyetçilik konusunda büyük bir gecikme ortaya koydu.

Araştırmam, IBM, Microsoft ve Microsoft gibi teknoloji devleri tarafından satılan yapay zeka sistemlerindeki ırk ve cinsiyet klişelerini ortaya çıkardı. Amazon.

Yapay zeka önyargısı ırkçılığı ve cinsiyetçiliği teşvik edebilir 2 Kanıtlar, bazı AI sistemlerinin Oprah Winfrey’in yüzünü düzgün bir şekilde sınıflandırmadığını gösteriyor. Kredi: Joy Buolamwini, Algoritmik Adalet İttifakı

Yüzün cinsiyetini tahmin etmekle görevlendirilen tüm şirketler, erkek yüzlerinde kadın yüzlerinden önemli ölçüde daha iyi performans gösterdi. İncelediğim şirketler, daha açık tenli erkekler için en yüksek %1 hata oranına sahipti.

Yapay zeka önyargısı ırkçılığı ve cinsiyetçiliği teşvik edebilir 3 Önde gelen şirketlerin yapay zeka sistemleri, Michelle Obama gibi ikonik kadınların yüzlerini sınıflandırmayı başaramadı. Kredi: Joy Buolamwini, Algoritmik Adalet İttifakı

Derinlik algılandı Amazon tekrar fark et

Bu hata sapmasının dikkate değer bir örneği, birçok kez gösterilmiştir. Amazon Yeniden algıla. tarafından geliştirilen yüz tanıma sistemleri Amazon Teknolojinin yeteneklerini gösteren birkaç zorluk var.

2018’de Amerikan Sivil Özgürlükler Birliği (ACLU) teknolojiyi test etti ve o sırada 28 ABD kongre üyesinin kafasını karıştırdı. suç ile. Kanıtlar web sitelerinde yayınlandı. ACLU, halka açık bir veri tabanından 25.000 fotoğraf indirdi ve Akreditasyon’dan, Amerika Birleşik Devletleri Kongresi’nin 535 üyesinin resimleriyle karşılaştırması istendi.

Sonuç olarak sistem 28 tesadüf buldu yani yapay zeka sistemine göre 28 milletvekili suç işlemekten tutuklandı.

Yapay zeka önyargısı ırkçılığı ve cinsiyetçiliği teşvik edebilir 4

Ama hepsi bu değil

2019’da uygulama tekrar test edildi Amazon Kuşkusuz ve birçok insanı şaşırtacak şekilde, sonuçlar da cesaret verici değil. ACLU tarafından yürütülen bir testte, Tanımlama Teknolojisi, beş milletvekilini bir polis kayıtları veritabanıyla karşılaştırırken hatalı bir şekilde suçlu olarak tanımladı.

Protesto, kolluk kuvvetlerinin yüz tanıma teknolojisini kullanmasını yasaklayacak bir yasa tasarısı için bastıran San Francisco Meclis Üyesi Phil Ting’in talebi üzerine düzenlendi.

“Yazılımın tamamen net olmadığının bir göstergesi olarak çalıştırmak istedik.” Şeyler söylüyor. Bu da tasarısının amacını netleştiriyor. Çünkü komik görünse de onları yanlış tanımladım. “İş bulmaya, ev almaya çalışan biriyseniz ve bunu yapamıyorsanız, çünkü bir suçlu tarafından haksız yere suçlandıysanız, eğlenceli değil.”.

Konuşma tanıma sisteminde ses yarışı

Birkaç ay önce, bir çalışma, konuşma tanıma sistemlerinde mevcut yarış gecikmelerini belirledi. Stanford Üniversitesi tarafından yürütülen “Otomatik konuşma tanımada ırksal farklılıklar” araştırması doğrudur, bu konuşma tanıma sistemlerinin Kafkas ve Afrikalı-Amerikalı sesler arasındaki farklılıklarla birlikte ırksal olarak önemli ölçüde yetenekli olduğunu göstermektedir.

Burada, tarafından geliştirilen beş yeni nesil ASR sisteminin yeteneklerini test ediyoruz. Amazon, AppleGoogle, IBM ve Microsoft – 42 beyaz konuşmacı ve 73 siyahi konuşmacı ile yapılan yapılandırılmış görüşmeleri yazıya dökmek için.

Beş ASR sisteminin hepsinin, beyaz konuşanlar için 0.19’a kıyasla siyah konuşmacılar için 0.35’lik bir ortalama kelime hatası (WER) ile önemli ırksal farklılıklar gösterdiğini bulduk.

Yapay zeka önyargısı ırkçılığı ve cinsiyetçiliği teşvik edebilir 5 Sonuçlar, beyaz oyların tanınmasında %19’luk bir hatadan Afrikalı-Amerikalıların seslerinin tanınmasında %35’lik bir hataya kadar dikkate değer bir fark gösterdi. Kaynak: pnas.org

İnsan bilgileriyle çalışmak üzere tasarlanmış tüm tanımlama tekniklerinde cins tahribatı bulunduğundan, bu çalışmalar kesinlikle endişe vericidir. Konuşma tanıma çalışmasından sonra araştırmacılar endişelerini dile getirdiler. Irk önyargısından etkilenen konuşma tanıma sistemleridiğer makine öğrenimi uygulamalarında ortaya çıktı.

IA ve etik ilkeleri: ırk, cinsiyet, milliyet açısından gecikmeler nelerdir?

Nisan 2020’de bir grup araştırmacı, yapay zekada ırksal önyargıyı keşfeden geliştiriciler için bir ödül programı başlattı. Ve bu harika bir girişim olsa da, bu ırksal klişeleri araştırmak ve raporlamak için zorlanmanız gerektiğinde, bu sorunun gerçekten ne kadar ciddi olduğunu gösteriyor.

“Gizlilik önyargısı ve ödül, AI için hata ödülü kavramını genişletecek ve performansları ve diğer özellikleri hakkında daha iyi veri kümeleri ve belge modelleri oluşturmak için mevcut çabaları tamamlayabilir.”

Bu, bu teknolojiyi geliştirenler tarafından uygulanması gereken yapay zekanın etik ilkeleri ile el ele gider. Eski DARPA Direktörü Regina Dugan da yapay zeka sistemlerindeki etik zorlukları ele almak için kırmızı ekip egzersizleri talep etti.

“Yapay Zekanın Demokratikleşmesi ve Saldırı Algoritması Önyargısı”

MWC 2019 sırasında, Forrester Research baş analisti Jennifer Belissent, verilerin sosyal bir bağlamda doğdukları için “tarafsız olamayacağını” bir kez daha göstererek “Yapay zekayı demokratikleştirme ve önyargılı algoritmalara saldırma” seminerine ev sahipliği yaptı, bu ilkeye karşı analist, bu ilkeye aykırı olduğuna karar verdi. Yapay zekayı alfabetik hale getirmek veya demokratikleştirmek ve bu teknolojileri tüketiciler için daha erişilebilir hale getirmek için “büyük veri çözümleri” eklemek için gerekli.

Aynı şekilde, verileri ve inovasyon etiğini denetleyen Birleşik Krallık Hükümeti başkanı Roger Taylor, “Etik, şu anki ana meseledir” diye açıklıyor ve ekliyor: “Ve yapay zeka Etiği, büyüyen bir merkezi mesele.”

Yapay zeka önyargısı ırkçılığı ve cinsiyetçiliği teşvik edebilir 6 Fotoğraf: AP

Günümüz toplumunda önemli bir faktör

“Siyahların suç işlemeye daha yatkın olduğunu açıklamanın mantıklı bir yolu yok.”

Roger Taylor, hukuk sisteminde yapay zeka kullanımından bahsederken, bu hatalardan dolayı masum insanların yargılanmasının mümkün olduğunu söyledi. MIT teknoloji uzmanları, hukuk uzmanları ve topluluk aktivisti Black Lives Matter tarafından hazırlanan bir rapora göre:

Polis, sıralamalarını nereye göndereceğini belirlemek için tahmine dayalı algoritmalar kullanır. Kolluk kuvvetleri, şüphelileri belirlemek için yüz tanıma sistemlerini kullanır.

Büyük ırksal önyargılara sahip olduğu gösterilen algoritmalar aracılığıyla kişinin geleceğiyle ilgili kararların sorumluluğunu üstlenin.

Teknoloji hayatımızın bir parçası, yüz tanıma ve ses tanıma sistemleri mobil cihazlarımıza önceden yüklenmiş olarak gelecek ve daha güçlü araçlardan bazıları bile daha önce bahsettiğimiz gibi Resmi kuruluşlar tarafından kullanılıyor, medeni haklar çalışmaları tarafından ciddi şekilde eleştirildi. Bu eksiklikleri doğrulayan çok sayıda çalışma için. bu yeni teknolojide.

Stadyumlarda yüz tanıma

Yapay zeka, makine öğrenimi, yüz tanıma sistemleri yalnızca geliştiriciler için zorlayıcı olmakla kalmıyor, aynı zamanda kendilerini sivil haklar temsilcileri için ezici bir teknoloji olarak sunuyor.

Bu teknoloji Afrika kökenli insanların, göçmenlerin ve kadınların fiziksel bütünlüklerini ortaya çıkardığından, bu kimlik sistemleri, verileri farklı veriler içermediğinden bu durumlara “hazırlıksızdır”.

Yapay zeka, geliştiricileri tarafından sağlanan bilgileri işleyen makine öğrenme algoritmaları ile, bu sınıflandırma, tanıma, seçme sürecinin öznel olduğu, makine öğrenme sisteminin bilgilerden öğrendiği çok açıktır. mevcut ırksal klişeleri netleştiren bilgi zenginliği.