Çarşamba günü Apple, Stable Diffusion AI görüntü oluşturucunun, Apple’ın makine öğrenimi modelleri için tescilli çerçevesi olan Core ML’yi kullanarak Apple Silicon üzerinde çalışmasına izin veren optimizasyonlar yayınladı. Optimizasyonlar, uygulama geliştiricilerin Apple Neural Engine donanımını kullanarak Stable Diffusion’ı önceki Mac tabanlı yöntemlere göre yaklaşık iki kat daha hızlı çalıştırmalarına olanak tanıyacak.
Ağustos ayında kullanıma sunulan Stable Difüzyon (SD), metin girişini kullanarak yeni görüntüler oluşturan açık kaynaklı bir yapay zeka görüntü sentezi modelidir. Örneğin, SD’ye “ejderhada astronot” yazmak, tipik olarak tam olarak bunun bir görüntüsünü oluşturur.
Apple, GitHub’da dönüştürme betikleri olarak sunulan yeni SD iyileştirmelerini yayınlayarak, aygıtlarında görüntü sentezinin tüm potansiyelini ortaya çıkarmak istiyor ve bunu Apple Araştırma duyuru sayfasında belirtiyor. “Stable Diffusion uygulamalarının sayısının artmasıyla, geliştiricilerin bu teknolojiden etkin bir şekilde yararlanabilmelerini sağlamak, her yerdeki reklam öğelerinin kullanabileceği uygulamalar oluşturmak için önemlidir.”
Apple ayrıca, mahremiyetten ve bulut bilgi işlem maliyetlerinden kaçınmanın, bir AI nesil modelini bir Mac veya Apple cihazında yerel olarak çalıştırmanın avantajları olarak bahseder.
Apple, “Kullanıcının modele girdi olarak sağladığı tüm veriler kullanıcının aygıtında kaldığı için son kullanıcının gizliliği korunur” diyor. “İkinci olarak, ilk indirmeden sonra, kullanıcılar modeli kullanmak için internet bağlantısına ihtiyaç duymuyor. Son olarak, bu modeli yerel olarak dağıtmak, geliştiricilerin sunucuyla ilgili maliyetlerini azaltmalarına veya ortadan kaldırmalarına olanak tanıyor.”
Şu anda Stable Diffusion, bir Windows veya Linux bilgisayarda yerel olarak çalıştırıldığında Nvidia’nın üst düzey GPU’larında en hızlı şekilde görüntüler oluşturuyor. Örneğin bir RTX 3060’ta 50 adımda 512×512 görüntü oluşturmak bizim makinemizde yaklaşık 8,7 saniye sürüyor.
Buna karşılık, bir Apple Silicon Mac üzerinde Stable Difüzyon çalıştırmanın geleneksel yöntemi çok daha yavaştır ve bir M1 Mac Mini üzerinde yaptığımız testlerde Diffusion Bee kullanarak 50 adımda 512×512 görüntü oluşturmak yaklaşık 69,8 saniye sürer.
Apple’ın GitHub’daki karşılaştırmalı değerlendirmelerine göre, Apple’ın yeni Core ML SD optimizasyonları, bir M1 yongasında 35 saniyede 512×512 50 adımlık bir görüntü oluşturabilir. Bir M2, görevi 23 saniyede yapar ve Apple’ın en güçlü Silikon yongası olan M1 Ultra, aynı sonucu yalnızca dokuz saniyede elde edebilir. Bu, M1 söz konusu olduğunda üretim süresini neredeyse yarıya indiren çarpıcı bir gelişme.
Apple’ın GitHub sürümü, Stable Diffusion modellerini PyTorch’tan Core ML’ye dönüştüren ve model dağıtımı için bir Swift paketi içeren bir Python paketidir. Optimizasyonlar Stable Diffusion 1.4, 1.5 ve yeni çıkan 2.0 için çalışıyor.
Şu anda bir Mac’te yerel olarak Core ML ile Stable Diffusion kurma deneyimi, geliştiricilere yöneliktir ve bazı temel komut satırı becerileri gerektirir, ancak Hugging Face, isteyenler için Apple’ın Core ML optimizasyonlarını ayarlamak için derinlemesine bir kılavuz yayınladı. denemek.
Teknik olarak daha az eğilimli olanlar için, daha önce bahsedilen Difüzyon Arısı adlı uygulama, Stable Diffusion’ı Apple Silicon’da çalıştırmayı kolaylaştırıyor, ancak Apple’ın yeni optimizasyonlarını henüz entegre etmiyor. Ayrıca, Draw Things uygulamasını kullanarak bir iPhone veya iPad’de Stable Difüzyon’u çalıştırabilirsiniz.