İnternette İstediğiniz Gibi Çevrimiçi Para Kazanma!

Yapay Zeka Trendleri – Şubat 2023 – Yapay Zekaya Doğru

Şu yazıyı okuyorsunuz: Yapay Zeka Trendleri – Şubat 2023 – Yapay Zekaya Doğru

İlk olarak Yapay Zekaya Doğru’da yayınlandı.

Yapay zekadaki trendler: Şubat 2023

Google’dan Bing + ChatGPT, Bard, Claude ve LAION… ChatGPT, Dil Modeli uygulamalarına yön vermeye devam ediyor. Üretken seste büyük bir ilerleme (MusicLM, AudioLDM, SingSong…), görüntü sentezi için GAN’ın geri dönüşü, 3D metinden videoya oluşturma, LM çıkışında filigranlama ve daha fazlası görülüyor.

Zeta Alpha’nın görüntüsü

2023’e bir aydan biraz daha uzun bir süre kala, yapay zeka dünyasında işlerin ne kadar telaşlı hale geldiğini rapor edecek elemelerimiz zaten tükeniyor. ChatGPT, AI alanının çok ötesindeki teknoloji alanına hakim olmaya ve onu bozmaya devam etti: Microsoft ve Google, web araması ve konuşma teknolojisindeki bir sonraki büyük geçiş için açık ve şiddetli bir şekilde rekabet ediyor. Dil modeli odaklı özelliklerde eşi benzeri görülmemiş bir patlama yaşanıyor. Audio + ML son yılların en yoğun ayını geçirdi; birçok makale sorunla ilgili önemli ilerleme kaydetti. Yayın modeli video üretimi gelişmeye devam ediyor. Teşvik etme yeni kullanım alanları bulmaya devam ediyor. Alçakta asılı kalan meyvelerin miktarı şaşırtıcıdır ve FOMO tüm zamanların en yüksek seviyesine doğru yaklaşıyor. O halde hadi dalalım!

?️ Haberler

Microsoft, ChatGPT’nin ivmesini artırmakla meşgul ve OpenAI ile olan ortaklığını iki katına çıkarıyor: LM’yi Azure hizmetlerinin ve Teams ürünlerinin bir parçası olarak dahil ediyor ve şimdi de son olarak, Bing’deki web aramanızın bir parçası olarak.

Lambda tabanlı sohbet aracısı Bard, yakın zamanda yaptığı duyuruya göre, Google’ın yıllardır rahatlıkla rakipsiz bir şekilde hakim web arama reklamları ile karşı karşıya kaldığını ve altın IP yığınlarını biriktirdiğini duyurdu. Ayrıca Google’ın da Antropik’e büyük yatırım yapıldı (400 milyon dolar), Dil Modeli hizmetlerinde OpenAI ile rekabet edecek yeni bir girişim Claudiusbelli bir heyecan yaratan, benzeri görülmemiş bir konuşma dili modeli.

Açık kaynak girişimleri de hızla gelişiyor. Vurgu, LAION Açık Asistan geliştirme aşamasındadır ve artık talimat vermek ve ayarlamak için kitle kaynaklı verilerdir (İnsan Geri Bildiriminden Güçlendirme Öğrenimi, RLHF ile).

Son olarak, Stabil Difüzyon serisi modellerin arkasındaki şirket olan Runway, yakın zamanda GEN-1 duyurulduMetin istemleriyle videoları düzenlemek için yeni video yayın modeliniz.

? Soruşturma

Her ay en son araştırma literatürünü inceliyor ve bilmeniz gereken 10 makaleden oluşan çeşitli bir dizi seçiyoruz. Bu ay dil modelleri, yayılma modelleri, müzik üretimi, çok modluluk ve daha fazlası gibi konuları ele alıyoruz.

1. MusicLM: metinden müzik üretmek | Proje sayfası

Yazan: Andrea Agostinelli, Timeo I. Denk, ve diğerleri.

❓ Neden → Üretken müzik/ses son haftalarda tam bir patlama yaşadı. İlginç bir şekilde, hem difüzyon hem de ayrık otoregresif modeller etkileyici performans göstermektedir. İşte burada giderek büyüyen ses yapay zekası işleri listesi için geçen ay kemerli kız.

? Anahtar fikirler → Sürekli yayılma modellerini kullanan diğer yeni üretken ses çalışmalarının aksine, MusicLM tamamen otoregresif ve tamamen ayrık bir müzik oluşturma modelidir. Mevcut çalışmayı akıllıca kullanır (SoundStream [1] ve w2v-BERT [2]) farklı zaman ölçeklerinde temsil öğrenimini artırmak ve birkaç dakikaya kadar uzun süreler boyunca daha önce görülmemiş bir tutarlılıkla müzik üretimi elde etmek. Yazarlar bu tekniğe hiyerarşik temsil adını veriyor çünkü otoregresif modelleme, uzun vadeli tutarlılığa ulaşmanın anahtarı olan farklı ayrıntı düzeylerinde gerçekleşiyor.

Çeşme: https://arxiv.org/pdf/2301.11325.pdf

Bu projenin temel bileşenlerinden biri çok ilginç bir şekilde verilerdir. Mulan için [3]dondurulmuş modeli alıyorlar ve SoundStream ve w2v-BERT için şunu kullanıyorlar: ücretsiz müzik dosyası. Ancak daha sonra, belirteçleri ve otoregresif modeli (yani aslında bir nesil müzikal temsilleri ortaya çıkaran modeli) eğitmek için, bir seferde toplam 280.000 saatlik müzik olan 5 milyon ses klibi içeren kendi özel veri setini kullanıyorlar. 24kHz. Bu, düşük seviyeli ve yüksek seviyeli temsiller arasında modelin yaklaşık 1 milyar (yüksek seviye) ve 50 milyar (düşük seviye) token üzerinde eğitildiği anlamına gelir. Bu, eğitim verileri açısından MusicLM’nin yaklaşık 30 milyar token ile eğitilen GPT-2 ile karşılaştırılabilir olduğu anlamına geliyor.

Müziğinden bazı örnekleri dinlemek için proje sayfasına göz atabilirsiniz. Ses üretimi konusuyla ilgileniyorsanız işte burada giderek büyüyen ses yapay zekası işleri listesi için geçen ay kemerli kız (Aşağıdaki tablo).

Çeşme: https://github.com/archinetai/audio-ai-timeline

2. Büyük dil modelleri için filigran

John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, Tom Goldstein tarafından.

❓ Neden → Ana akım arasında chatGPT’nin popülaritesinin artmasıyla birlikte, hile ve atıf yapma konusundaki endişeler de arttı. Bu modellerin nerede kullanılmasına izin verilmeli? Bir modelin çıktısını tespit edebiliyor musunuz?

? Anahtar fikirler → Bu çalışma, OpenAI’dekiler gibi özel dil modellerinin çıktılarına filigran eklemek için bir yöntem önermektedir. Bu filigranın yol gösterici ilkelerinden biri, asla hatalı pozitif sonuçlara (yani bir kişinin “yanlış suçlamalarına”) yol açmamasıdır. Bununla birlikte, yöntem şu şekilde çalışır:

  1. Bir belirteç verildiğinde, deterministik bir sözde rastgele algoritma, dil modeli kelime dağarcığını, hemen ardından görünebilecek beyaz/kara liste belirteçlerine böler.
  2. Model, her çıkarım adımında yalnızca beyaz listeye alınan sözcüklerden sonuçlar üretir.
  3. Üretim bozulmasını önlemek için, bu süreç yalnızca yüksek entropili belirteçler için geçerlidir (örneğin, birden fazla devamlılık kullanılabildiğinde yalnızca beyaz/kara listelere müdahale ederler, ancak bir belirtecin diğerini takip etmesi gerektiğinde onu yalnız bırakın). Yöntem biraz daha karmaşıktır ve yazarlar bilgi kuramı perspektifinden teorik garantiler sağlamaktadır, ancak siz ana fikri anladınız.

Çeşme: https://arxiv.org/pdf/2301.10226.pdf

Şimdi, bu teknik, yazarların gösterdiği gibi, birkaç kelimenin orada burada yer değiştirmesi gibi bazı saldırılara karşı dirençlidir, ancak kurşun geçirmez değildir ve yeterli çabayla kandırılabilir (örneğin, üçüncü taraf bir dil modeline sahip olmak). birinci dil modelinin çıktısı). Yine de OpenAI’nin, teknolojinin hileli kullanımını azaltmayı umarak benzer bir filigran tekniğiyle bir lansman planladığı söyleniyor.

LM’lerin çıktısını tespit etmek için diğer sıfır atış teknikleri geliştirilmiştir, örneğin GPT’yi tespit et [4]Daha yüksek bir yanlış pozitif oranına sahiptirler.

3. Göster-Ara-Tahmin Et: Bilgi yoğun NLP için dil ve erişim modellerinin oluşturulması | Kod

Omar Hattab, Keshav Santhanam, Xiang Lisa Li, David Hall, Percy Liang, Christopher Potts, Matei Zaharia.

❓ Neden → Geri almayla artırılmış LM’ler hakkında çok konuştuk; bir LM’yi harici açık bellekle artırmak, bilgiyi bulma şeklimizde devrim yaratma potansiyeline sahiptir. Bu çalışma, iyileşme ile LM’yi artırmanın ötesinde bir adımı temsil ediyor.

? Anahtar fikirler → Kurtarmayla zenginleştirilmiş LM’lerin çoğu, alma ve okuma yöntemiyle çalışır: bir istem üzerine, daha sonra LM oluşturma için bağlam olarak kullanılan kurtarma modeline (RM) bir sorgu yapılır. Ancak bazen karmaşık bilgi ihtiyaçları, LM ile RM arasında daha karmaşık bir etkileşim gerektirir; bu makalenin de modellemeyi önerdiği şey budur.

Göster-Ara-Tahmin Et (DSP), bir LM ile donmuş bir RM’nin doğal dil ve puan alışverişi yoluyla etkileşime girdiği bağlam içinde öğrenmeye yönelik bir çerçevedir. Bu, bilgi yoğun çok atlamalı soru-cevap senaryolarında (yani yanıtın hemen bulunamadığı durumlarda) performansın arttığını gösterir. Yazarlar, LM ve LM’nin etkileşimini 3 adım aracılığıyla tanımlamak için bir Python uygulaması sunar: gösteri (eğitim örneklerinden otomatik olarak çıkarılan birkaç örnek), arama (RM ve LM etkileşimleri) ve tahmin (nihai yanıtın oluşturulması).

Çeşme: https://arxiv.org/pdf/2212.14024.pdf

LM alanında ilginç bulabileceğiniz diğer işler şunlardır: REPLUG: kurtarmayla zenginleştirilmiş kara kutu dil modelleri, Sadık Düşünce Zinciri MuhakemeVe Büyük dil modellerinin dikkati ilgisiz bağlam nedeniyle kolayca dağılabilir (Son uyarı hilesi “gereksiz bilgileri dikkate almayın” ifadesini eklemektir).

4. Flan Koleksiyonu: Etkili Öğretim Düzenlemesi için Veri Tasarımı ve Yöntemler

Yazan: Shayne Longpre, Le Hou, Tu Vu, Albert Webson, Hyung Won Chung, Yi Tay, Denny Zhou, Quoc V. Le, Barret Zoph, Jason Wei, Adam Roberts.

❓ Neden → Kendi başınıza uygulayabileceğiniz ve çalıştırabileceğiniz, tamamen halka açık ve açık kaynaklı en iyi dil modeli nedir? FLAN-T5’e benziyor.

? Anahtar fikirler → Başlangıçta FLAN’da önerildi [5]Talimat ayarlama (InstructGPT ile karıştırılmamalıdır), LM eğitimine doğal dil talimatları biçiminde etiketlenmiş verileri dahil etme işlemidir.

Bu çalışma, mevcut açık kaynaklı, önceden eğitilmiş, ince ayarlı öğretim modellerini çeşitli ortamlarda karşılaştırmaktadır: tutulan veya tutulan görevler (model, eğitim sırasında görevleri gördü mü?) ve sıfır atışlı veya birkaç atışlı öğrenme. Karşılaştırılan modellerin tümü T5 ailesine aittir ve OPT-IML-Max hariç 3 milyar parametreye sahiptir. [8] 175 milyar parametreyle.

Çeşme: https://arxiv.org/pdf/2301.13688.pdf

Ana noktalar şunlardır: (1) tüm ortamlarda eğitim yardımı performansı sırasında sıfır ve birkaç atış örneklerinin karıştırılması, (2) daha küçük modellerin, daha büyük modellerin performansını yakalamasına izin vermek için talimat ayarının tekrar gösterilmesi .

Bu sonuçlar, Flan T5’in şu anda sıfır ve birkaç adımlı öğrenme için en kullanışlı orta ölçekli (3-10B) model olduğuna dair mevcut geleneksel görüşü doğrulamaktadır.

Çeşme: https://arxiv.org/pdf/2301.13688.pdf

5. Tracr: Transformers, yorumlanabilirlik için bir laboratuvar olarak derlendi | Kod

David Lindner, János Kramár, Matthew Rahtz, Thomas McGrath, Vladimir Mikulik tarafından.

❓ Neden → Transformers’ı bilgisayarlar olarak görmek, bu modellerin hangi hesaplamaları gerçekleştirebileceğine dair yeni bir anlayış ortaya çıkarabilir.

? Anahtar fikirler → Kısıtlı Erişim Akışı İşleme (RASP) dili [6] bir transformatörün gerçekleştirebileceği hesaplamaları ifade etmek için alana özgü bir dildir. Transformer’ı, girdisi (1) seçebilen, (2) öğe bazında hesaplamalar yapabilen veya (3) toplu seçim hesaplaması yapabilen bir dizi kategorik değişken ve operatörden oluşan bir bilgi işlem platformu olarak düşünün.

Tracr, RASP’ı doğrudan Transformatör ağırlık değerlerine derleyen bir yöntemdir. Örneğin aşağıda bir diziyi sıralamak için bir program verilmiştir.

Çeşme: https://arxiv.org/pdf/2301.05062.pdf

Şimdilik bunun pratik uygulamaları çok sınırlıdır, ancak transformatörlerin gerçekleştirdiği hesaplama türlerini daha iyi anlamak için bir araç olarak hizmet edebilir. Ek olarak, sinir ağları içerisinde sembolik işlemlerin uygulanması için bir köprü görevi görebilir veya belirli algoritmaları uygulayan belirli ağırlık kalıpları tespit edildiğinde sinir ağı bileşenlerini daha verimli algoritmalarla değiştirebilir.

Makale ayrıca derlenmiş ağırlıkların gradyan inişiyle öğrenilen ağırlıklarla nasıl karşılaştırıldığını karşılaştırarak bu iki yöntemin aynı sonuçlara nasıl yakınsadığını ampirik olarak doğruluyor.

6. Difüzyon modeli eğitim verilerinin çıkarılması

Nicholas Carlini, Jamie Hayes, Milad Nasr, Matthew Jagielski, Vikash Sehwag, Florian Tramèr, Borja Balle, Daphne Ippolito, Eric Wallace tarafından.

❓ Neden → Üretken yapay zekanın hızla yükselişinde, eğitim verilerinin sahipliği, atfedilmesi ve gizliliği hararetli bir tartışma alanı haline geldi. Bu çalışma, üzerinde eğitim aldıkları görüntülerin aynısını yeniden üretme söz konusu olduğunda difüzyon modellerinin eksikliklerini ve risklerini vurguluyor; bu da endişe verici çünkü eğitim verileri genellikle tam olarak filtrelenmiyor ve sonunda özel bilgiler içeriyor.

? Anahtar fikirler → Bu yazıda yaptıkları şeyin özü son derece basittir; eğitim setinde bulunanlarla eşleşen ipuçlarıyla istikrarlı dağılıma sahip görüntüler oluşturmak ve modelin üzerinde eğitim aldığı görüntünün aynısını ne sıklıkla ürettiğini görmek.

Ana sonuçlar şunlardır:

  • Model ne kadar güçlü olursa eğitim görüntülerini kurtarma olasılığı da o kadar artar.
  • GAN tabanlı görüntü oluşturma modelleri, eğitim veri kümesinden de görüntüler oluşturabilir ancak doğrudan ezberlemeye daha az duyarlıdır. İlginç bir şekilde, GAN’lar ve DM’ler aynı görselleri ezberlemeye yönelik güçlü bir eğilime sahiptir; bu da bu görsel/mesaj çiftleri arasında onları “unutulmaz” kılan ortak bir noktanın olduğunu düşündürmektedir.

Çeşme: https://arxiv.org/pdf/2301.13188.pdf

Bu çalışma otoregresif görüntüleme modellerini araştırmamaktadır ancak GAN’lardan farklı olarak eğitim verilerini tam olarak kopyalamak üzere eğitildikleri göz önüne alındığında bunların difüzyon modelleriyle nasıl karşılaştırıldığını görmek kesinlikle ilginç olacaktır.

7. Dil modellerinde çok modlu düşünce zinciri akıl yürütme

Zhuosheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola tarafından.

❓ Neden → düşünce zinciri[9] bir yıl önce mevcut dilsel modellerden pek çok akıl yürütmenin çıkarılabileceğini gösterdi. Artık teknik çok modlu bir senaryoda (görüş + dil) uygulanmaktadır.

? Anahtar fikirler → Bu çalışma, boyutları 1 milyara kadar parametreye sahip modellerde görseller de dahil olmak üzere soruların yanıtlanmasını araştırıyor. İlginç bir şekilde önceki araştırmalar, düşünce zincirinin küçük modellerde muhakeme performansına zarar verebileceğini ve ortak görüş + dil modellerinin muhakemede birçok halüsinasyon ürettiğini buldu. Yazarlar bunu, mantık oluşturma ve tepkiyi iki aşamaya ayırarak çözmeyi öneriyorlar. Bu, örneğin ScienceQA karşılaştırmasında (ilginç bir şekilde, API’ler aracılığıyla GPT-3.5, yalnızca metinden metne dil modeli olan OpenAI) önceki son teknolojiyi aşan daha yüksek performansla sonuçlanır.

Bu, görüntüleri içeren akıl yürütme açısından ilginç bir çalışma olsa da, daha büyük ölçeklerde çok daha iyi CoT akıl yürütmenin ortaya çıktığını daha önce gördüğümüz için, daha büyük modellerin bu yaklaşımla nasıl performans gösterdiğini görmek bizi çok ilgilendiriyor.

Çeşme: https://arxiv.org/pdf/2302.00923.pdf

8. StyleGAN-T: Hızlı, büyük ölçekli metinden görüntüye sentez için GAN’ların gücünü açığa çıkarıyor | Kod

Axel Sauer, Tero Karras, Samuli Laine, Andreas Geiger, Timo Aila tarafından.

❓ Neden → GAN’lar, yayılma modellerinin şafağında ölmeyi reddediyor.

? Anahtar fikirler → Etkileyici çok yönlülüğü ve sağlamlığı sayesinde difüzyon modelleri görüntü oluşturmanın temel unsuru haline gelmiş olsa da, GAN’ların hâlâ onlara göre bazı avantajları var. Önemli olan, bunların çok daha verimli olmasıdır: bir görüntü oluşturmak için ileri doğru tek bir adım yeterliyken, difüzyon modelleri bunu yapmak için birkaç adım gerektirir.

Bu çalışma, büyük ölçekli metinden görüntüye sentezlemenin modern gereksinimlerini karşılamak için GAN’ın en son yinelemesini önermektedir: StyleGAN-T. Örneğin, güçlü metin hizalaması, kontrol edilebilir çıktı değişimi, çeşitli veriler üzerinde eğitim kararlılığı vb. Genel olarak, modern sinir ağlarını ve optimizasyon uygulamalarını GAN tabanlı görüntü oluşturmaya uygulayan çok sağlam bir mühendislik parçasıdır.

Yine de StyleGan-T, CLIP yerleştirmelerini kullanan koşullu oluşturma kılavuzu gibi DALL·E 2 gibi mevcut ünlü yayılma modelleriyle bazı benzerlikler paylaşıyor. Yazarlar, bu GAN modelinin metin mesajıyla daha iyi hizalama farkı telafisi sağladığını vurguluyor (yani, ortaya çıkan görüntünün mesajı yansıtmasını istiyorsunuz, ancak aynı zamanda birden çok kez oluşturulduğunda makul değişkenliğe sahip olmasını istiyorsunuz).

Genel olarak, GAN’lar verimlilik gibi kısıtlamalar göz önüne alındığında rekabetçi olmaya devam ediyor, ancak gelişmeye ve yeni kullanım alanları bulmaya devam ettikleri sürece onların yayılma modellerini kısa sürede geçersiz kılmalarını beklemiyoruz.

9. Metinden 4D’ye (MAV3D) dinamik sahne oluşturma | Proje sayfası

Yazan: Uriel Singer, Shelly Sheynin, Adam Polyak, Oron Ashual, Iurii Makarov, Filippos Kokkinos, Naman Goyal, Andrea Vedaldi, Devi Parikh, Justin Johnson, Yaniv Taigman.

❓ Neden → Görüntü oluşturmaya bir boyut daha ekleniyor: 3D video oluşturma.

? Anahtar fikirler → Bu çalışmanın en etkileyici özelliklerinden biri, görüntülerin aksine çok fazla 3D video ve metin verisi çiftinin bulunmamasıdır; bu nedenle bunun ele alınması gerekmektedir. Bunu yapmak için yazarlar, önceden eğitilmiş mevcut bir metinden videoya modeline (Make-A-Video) güveniyorlar.[7], yine Meta’dan) bir NeRF modeli için bir “sahne öncesi” olarak sahnenin 3 boyutlu temsilini oluşturmak üzere optimize edilmiştir. Manuel olarak, optimizasyon süreci sırasında, NeRF modeli, bitişik uzay-zaman koordinatlarından bir sahnenin bir dizi görünümünü oluşturur ve ardından, Score adı verilen bir teknik kullanılarak görüntünün gerçekçiliğini ve metin mesajıyla hizalamasını puanlamak için difüzyon modeli kullanılır. Damıtma Numune Alma.

Çeşme: https://arxiv.org/pdf/2301.11280.pdf

Çalışma DreamFusion’ın bir uzantısı olarak görülebilir. [8], zaman boyutunun eklendiği metinden 3 boyutlu görüntüye dönüştürme modeli. Bu modelden elde edilen videolar kısadır ve herhangi bir anlatım içermez; bu da daha uzun videolar oluşturmanın zorlu bir yönü olmaya devam etmektedir.

10. PADL: Fizik Tabanlı Karakter Kontrol Diline Yönelik | Proje sayfası | Kod

Jordan Juravsky, Yunrong Guo, Sanja Fidler, Xue Bin Peng tarafından.

❓ Neden → Seçimi bitirmek için eğlenceli bir tane! Metnin ötesinde LM uygulamaları.

? Anahtar fikirler → Bu çalışma, doğal dil talimatlarını karakter kontrolüyle eşleştirmek için LM’yi kullanıyor. Bir video oyununda bir karakteri karmaşık, keyfi, üst düzey dil talimatlarıyla hareket ettirmeyi düşünün. Bu, erişilebilirlik (örneğin, daha az açık girdiyle animasyonları çok daha hızlı tasarlamak), yeni video oyunu deneyimleri ve hatta giderek daha karmaşık hale gelen talimatlarla yeni genel insan-bilgisayar etkileşimleri bağlamında çok büyük bir potansiyele sahiptir.

Yöntem, dil talimatlarını karakter hareketleriyle hizalayan bir beceri yerleştirmeyi öğrenmeyi, bir politikayı eğitmeyi ve son olarak becerileri ve görevleri (örneğin, karmaşık nesneleri ve etkileşimleri içeren) birleştirmek için bir toplama politikasını öğrenmeyi içerir.

Referanslar:

[1] Neil Zeghidour, Alejandro Luebs, Ahmed Omran, Jan Skoglund, Marco Tagliasacchi, 2021. “SoundStream: uçtan uca sinirsel ses codec’i”.

[2] “W2v-BERT: Kendi kendini denetleyen konuşma ön eğitimi için karşılaştırmalı öğrenmeyi ve maskeli dil modellemeyi birleştirmek” Yu-An Chung, Yu Zhang, Wei Han, Chung-Cheng Chiu, James Qin, Ruoming Pang, Yonghui Wu, 2021.

[3] “MuLan: Müzikal Ses ve Doğal Dilin Ortak Birleşimi” Yazan: Qingqing Huang, Aren Jansen, Joonseok Lee, Ravi Ganti, Judith Yue Li, Daniel PW Ellis, 2022.

[4] “DetectGPT: Olasılık eğriliğini kullanarak sıfır atışlı makine tarafından oluşturulan metin algılama” Yazan: Eric Mitchell, Yoonho Lee, Alexander Khazatsky, Christopher D. Manning, Chelsea Finn, 2023.

[5] “Ayarlanmış dil modelleri sıfır atışlı öğrenenler” Yazan: Jason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le, 2021.

[6] Gail Weiss, Yoav Goldberg, Eran Yahav, 2021 tarafından “Transformers Gibi Düşünmek”.

[7] Uriel Singer, Adam Polyak, Thomas Hayes, Xi Yin, Jie An, Songyang Zhang, Qiyuan Hu, Harry Yang, Oron Ashual, Oran Gafni tarafından yazılan “Video Yap: Metin-Video Verileri Olmadan Metinden Videoya Üretim”, Devi Parikh, Sonal Gupta, Yaniv Taigman, 2022.

[8] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, Todor Mihaylov, Myle Ott, Sam Shleifer tarafından yazılan “OPT: Açık Önceden Eğitimli Transformer Dil Modelleri”, Kurt Shuster, Daniel Simig, Punit Singh Koura, Anjali Sridhar, Tianlu Wang, Luke Zettlemoyer, 2022.

[9] “Düşünce Zinciri Uyarımı Uzun Dil Modellerinde Akıl Yürütmeyi Tetikliyor” Yazan: Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou, 2022.


Yapay Zeka Trendleri: Şubat 2023 ilk olarak Medium’da Towards AI’da yayınlandı; burada insanlar bu hikayeyi vurgulayıp yanıt vererek sohbete devam ediyor.

Towards AI aracılığıyla yayınlandı

Diğer ilginç konular: