Pazartesi, Haziran 24, 2024
Ana SayfaTeknoloji HaberleriStability AI, açık kaynaklı bir ChatGPT alternatifi olan StableLM'yi piyasaya sürdü

Stability AI, açık kaynaklı bir ChatGPT alternatifi olan StableLM’yi piyasaya sürdü

Yapay zeka tarafından oluşturulmuş bir görüntü
Büyüt / Stability AI tarafından oluşturulan bir “Stokastik Papağan”ın yapay zeka tarafından oluşturulmuş bir görüntüsü.

Benj Edwards / Kararlılık AI / Kararlı Difüzyon XL

Çarşamba günü, Stability AI, StableLM adlı yeni bir açık kaynaklı AI dil modelleri ailesi yayınladı. Stability, 2022’de piyasaya sürülen Stable Diffusion açık kaynak görüntü sentezi modelinin hızlandırıcı etkilerini tekrarlamayı umuyor. İyileştirmeyle StableLM, ChatGPT’ye açık kaynak alternatifi oluşturmak için kullanılabilir.

StableLM, Stability’ye göre şu anda GitHub’da 3 milyar ve 7 milyar parametreli model boyutlarında alfa formunda ve ardından 15 milyar ve 65 milyar parametreli modellerde mevcut. Şirket, modelleri Creative Commons BY-SA-4.0 lisansı altında piyasaya sürüyor; bu lisans, uyarlamaların orijinal yaratıcıya atıf yapmasını ve aynı lisansı paylaşmasını gerektiriyor.

Stability AI Ltd., kendisini “açık” ismine rağmen nadiren açık kaynak modelleri yayınlayan ve sinir ağı ağırlıklarını – tanımlayan sayılar kütlesini – koruyan OpenAI’ye açık kaynak rakibi olarak konumlandıran Londra merkezli bir firmadır. bir yapay zeka modelinin temel işlevselliği – tescilli.

Stability bir giriş blog gönderisinde “Dil modelleri dijital ekonomimizin bel kemiğini oluşturacak ve herkesin onların tasarımında söz sahibi olmasını istiyoruz” diye yazıyor. “StableLM gibi modeller, şeffaf, erişilebilir ve destekleyici yapay zeka teknolojisine olan bağlılığımızı gösteriyor.”

ChatGPT’nin en güçlü sürümüne güç sağlayan büyük dil modeli (LLM) olan GPT-4 gibi StableLM de bir dizideki bir sonraki belirteci (kelime parçası) tahmin ederek metin oluşturur. Bu dizi, bir insan tarafından bir “bilgi istemi” biçiminde sağlanan bilgilerle başlar. Sonuç olarak, StableLM insan benzeri metinler oluşturabilir ve programlar yazabilir.

Meta’nın LLaMA, Stanford Alpaca, Cerebras-GPT ve Dolly 2.0 gibi diğer yeni “küçük” LLM’leri gibi, StableLM de çok daha az parametre kullanırken (StableLM için 7 milyar, GPT için 175 milyar) OpenAI’nin referans noktası GPT-3 modeline benzer bir performans elde etme iddiasındadır. -3.

Parametreler, bir dil modelinin eğitim verilerinden öğrenmek için kullandığı değişkenlerdir. Daha az parametreye sahip olmak, bir dil modelini daha küçük ve daha verimli hale getirerek akıllı telefonlar ve dizüstü bilgisayarlar gibi yerel cihazlarda çalıştırmayı kolaylaştırabilir. Ancak, daha az parametre ile yüksek performans elde etmek, yapay zeka alanında önemli bir zorluk olan dikkatli mühendislik gerektirir.

Stability, “StableLM modellerimiz metin ve kod üretebilir ve bir dizi aşağı akış uygulamasına güç sağlar” diyor. “Uygun eğitimle küçük ve verimli modellerin nasıl yüksek performans sağlayabileceğini gösteriyorlar.”

Stability AI’ye göre StableLM, The Pile adlı açık kaynaklı bir veri setine dayalı, ancak üç kat daha büyük olan “yeni bir deneysel veri seti” üzerinde eğitildi. Stability, ayrıntıları daha sonra yayınlamayı vaat ettiği bu veri setinin “zenginliğinin”, konuşma ve kodlama görevlerinde daha küçük parametre boyutlarında modelin “şaşırtıcı derecede yüksek performansını” açıkladığını iddia ediyor.

StableLM’nin Alpaka yöntemine dayalı olarak diyalog için oluşturulmuş 7B modelinin ince ayarlı bir versiyonuyla yaptığımız resmi olmayan deneylerde, bunun Meta’nın ham 7B parametreli LLaMA modelinden daha iyi performans gösterdiğini (istem verildiğinde beklediğiniz çıktılar açısından) bulduk. , ancak GPT-3 düzeyinde değil. StableLM’nin daha büyük parametreli sürümleri daha esnek ve yetenekli olabilir.

Geçen yılın Ağustos ayında Stability, Münih Ludwig Maximilian Üniversitesi’ndeki CompVis grubundaki araştırmacılar tarafından geliştirilen Stable Diffusion’ın açık kaynak lansmanını finanse etti ve duyurdu.

İstemlerden görüntüler üretebilen erken bir açık kaynak gizli difüzyon modeli olarak Stable Diffusion, görüntü sentez teknolojisinde hızlı bir gelişme çağını başlattı. Ayrıca, bazıları Stability AI’ye dava açan sanatçılar ve tüzel kişiler arasında güçlü bir tepki yarattı. Kararlılığın dil modellerine taşınması benzer sonuçlara ilham verebilir.

Kullanıcılar, 7 milyar parametreli StableLM temel modeli Hugging Face’i ve Replicate üzerinde ince ayarlı modeli test edebilir. Ek olarak, Hugging Face, ChatGPT ile benzer bir konuşma formatına sahip StableLM’nin diyalog ayarlı bir sürümünü barındırır.

Stability, “yakın gelecekte” StableLM hakkında eksiksiz bir teknik rapor yayınlayacağını söylüyor.

RELATED ARTICLES

Popüler Konular