Çarşamba, Haziran 19, 2024
Ana SayfaTeknoloji HaberleriNvidia'nın yeni canavar CPU + GPU yongası, yeni nesil AI sohbet botlarına...

Nvidia’nın yeni canavar CPU + GPU yongası, yeni nesil AI sohbet botlarına güç verebilir

NVIDIA'nın GH200'ü
Büyüt / NVIDIA’nın GH200 “Grace Hopper” AI süper çipi.

Nvidia

Geçen hafta başlarında COMPUTEX’te Nvidia, büyük ölçekli AI uygulamaları için özel olarak oluşturulmuş bir CPU ve GPU kombinasyonu olan yeni GH200 Grace Hopper “Superchip”in tam üretime geçtiğini duyurdu. Bu bir canavar. 528 GPU tensör çekirdeğine sahiptir, 480 GB’a kadar CPU RAM’i ve 96 GB’a kadar GPU RAM’i destekler ve saniyede 4 TB’a kadar bir GPU bellek bant genişliğine sahiptir.

Şu anda Nvidia’nın en güçlü veri merkezi GPU’su olan Nvidia H100 Hopper çipini daha önce ele almıştık. OpenAI’nin ChatGPT’si gibi AI modellerine güç veriyor ve bugün bahsettiğimiz birçok haber üreten üretken AI sohbet robotu ve görüntü oluşturucu için ilk eğitim turunu destekleyen 2020’nin A100 çipine göre önemli bir yükseltme oldu.

Daha hızlı GPU’lar, günümüzün yapay sinir ağlarının çalışması için gerekli olan paralel olarak daha fazla matris çarpımını çalıştırabildikleri (ve bunu daha hızlı yapabildikleri) için kabaca daha güçlü üretken yapay zeka modellerine dönüşür.

GH200, bu “Hopper” temelini alır ve Nvidia’nın “Grace” CPU platformuyla (her ikisi de bilgisayar öncüsü Grace Hopper’ın adını almıştır) birleştirir ve Nvidia’nın NVLink chip-to-chip (C2C) ara bağlantı teknolojisi aracılığıyla tek bir yonga haline getirir. Nvidia, kombinasyonun AI ve makine öğrenimi uygulamalarını hem eğitim (bir model oluşturma) hem de çıkarım (onu çalıştırma) açısından önemli ölçüde hızlandırmasını bekliyor.

Nvidia’da hızlandırılmış bilgi işlemden sorumlu başkan yardımcısı Ian Buck bir basın açıklamasında, “Üretken yapay zeka, işletmeleri hızla dönüştürüyor, yeni fırsatların kilidini açıyor ve sağlık, finans, iş hizmetleri ve daha birçok sektörde keşfi hızlandırıyor” dedi. “Grace Hopper Superchips’in tam üretimde olmasıyla, dünya çapındaki üreticiler yakında işletmelerin benzersiz özel verilerinden yararlanan üretken yapay zeka uygulamaları oluşturmak ve devreye almak için ihtiyaç duydukları hızlandırılmış altyapıyı sağlayacak.”

Şirkete göre, GH200’ün temel özellikleri arasında PCIe Gen5’ten yedi kat daha hızlı olan yeni bir 900 GB/s tutarlı (paylaşılan) bellek arabirimi yer alıyor. GH200 ayrıca, yukarıda belirtilen Nvidia DGX A100 ile karşılaştırıldığında GPU’ya 30 kat daha yüksek toplam sistem belleği bant genişliği sunar. Ayrıca GH200, Nvidia HPC SDK, Nvidia AI ve Nvidia Omniverse dahil olmak üzere tüm Nvidia yazılım platformlarını çalıştırabilir.

Özellikle Nvidia, bu birleşik CPU/GPU yongasını, tek bir GPU olarak çalışmak için 256 GH200 yongasının birleşik gücünü kullanabilen, 1 exaflop performans ve 144 terabayt sağlayan DGX GH200 adlı yeni bir süper bilgisayara inşa edeceğini duyurdu. paylaşılan bellek, önceki nesil Nvidia DGX A100’den yaklaşık 500 kat daha fazla bellek.

DGX GH200, üretken dil uygulamaları, öneri sistemleri ve veri analitiği için dev yeni nesil yapay zeka modellerini (GPT-6, kimse?) eğitebilecek. Nvidia, GH200 için fiyatlandırmayı açıklamadı, ancak Anandtech’e göre, tek bir DGX GH200 bilgisayarı “kolayca düşük 8 basamaklı bir yere mal olacak”.

Genel olarak, Nvidia ve Cerebras gibi satıcıların devam eden donanım geliştirmeleri sayesinde, üst düzey bulut yapay zeka modellerinin zaman içinde daha yetenekli olmaya, daha fazla veriyi işlemeye ve eskisinden çok daha hızlı yapmaya devam edeceğini söylemek mantıklıdır. Umalım da teknoloji gazetecileriyle tartışmasınlar.

RELATED ARTICLES

Popüler Konular