Nvidia dünyanın en güçlü yapay zeka çipi Blackwell B200’ü tanıttı: İşte teknik detaylar

Posted by

Nvidia, firmayı trilyon dolarlık şirket haline getiren ve dünyanın en değerli üçüncü şirketi konumuna yükselten Hopper H100 GPU’lara kıyasla 5 kata kadar performans artışı sunan yeni nesil Blackwell GPU mimarisini resmi olarak tanıttı. Rakipleri Nvidia’yı yakalamaya çalışırken firma Blackwell tabanlı yeni yeni Blackwell B200 GPU ve GB200 Superchip ürünlerini de resmen duyurdu. İşte tüm merak edilenler ve detaylar:

Nvidia Blackwell mimarisi ve yeni Blackwell B200

Nvidia, düzenlediği etkinlikte Blackwell kod adlı yeni nesil AI & Tensor Core GPU mimarisini detaylandırdı. Beklendiği gibi Blackwell GPU’ları, Nvidia’nın aynı kalıp üzerinde iki GPU’yu bir araya getirdiği ilk MCM tasarımı olacak.

Blackwell mimarisi TSMC 4NP işlem sürecinde üretilen her bir hesaplama kalıbında toplam 104 Milyar transistör içeriyor. B100 GPU’lar, süper hızlı çipten çipe ara bağlantı sağlayan 10 TB/s yüksek bant genişliğine sahip bir arayüze sahip. Bu GPU’lar aynı paket üzerinde tek bir çip olarak birleştirilirken toplamda 208 milyar transistöre erişiliyor ve tümüyle GPU önbellek bütünlüğü sunuyor.

Hopper ile karşılaştırıldığında, Nvidia Blackwell GPU 128 milyar daha fazla transistör, çip başına 20 petaFlop’a yükseltilmiş 5 kat daha fazla yapay zeka performansı ve 4 kat daha fazla yerleşik bellek sunuyor. Blackwell GPU’nun kendisi ise 8192 bit veri yolu arayüzünde 8 TB/s bellek bant genişliği ve 192 GB’a kadar 8 katmanlı HBM3e belleklerle donatılmış.
Nvidia, Blackwell GPU’ları tam donanımlı bir platform olarak sunuyor ve dört işlem kalıbı olan bu GPU’lardan ikisini tek bir Grace CPU (72 ARM Neoverse V2 CPU çekirdeği) ile birleştiriyor. Entegre devre üzerindeki GPU’lar hem birbirleriyle hem de Grace CPU ile 900GB/s NVLink arabağlantı protokolüyle bağlanıyor.
Nvidia çift GPU ve tek CPU çözümünü kullanan GB200‘ün LLM çıkarım iş yükleri için 30 kat daha fazla performans sunduğunu belirtiyor. Öte yandan firma, H100’e göre maliyeti ve enerji tüketimini 25 kata kadar azalttığını söylüyor. Nvidia açıkçası nesilden nesile büyük bir sıçrama yapıyor diyebiliriz. Öyle ki firmanın ifadelerine göre 1,8 trilyon parametreli bir yapay zeka modelinin eğitilmesi önceki nesilde 8.000 Hopper GPU ve 15 megawatt güç gerektiriyordu. Bugün ise 2.000 Blackwell GPU’su ve sadece 4 megawatt güç gerekiyor.
Buradaki önemli gelişmelerden birisi de Nvidia’nın her bir nöron için sekiz yerine dört bit kullanarak hesaplama, bant genişliği ve model boyutunu iki katına çıkaran ikinci nesil Transformer Engine motorunu kullanıyor. İkinci önemli fark ise çok sayıda GPU’yu birbirine bağladığınızda ortaya çıkıyor: 576 GPU’nun saniyede 1,8 terabayt çift yönlü bant genişliğiyle birbiriyle konuşmasını sağlayan yeni nesil NVLink. Bunun için Nvidia’nın 50 milyar transistörlü ve kendi yerleşik işlemcisine sahip yepyeni NVLink Switch yongasını üretmesi gerekti.
Elbette firmalar bu GPU’ları birkaç adet olarak satın almayacak, bunlardan tek seferde binlerce alınıyor. Bu bağlamda Nvidia, toplam 720 petaflop AI eğitim performansı veya 1.440 petaflop (diğer adıyla 1,4 exaflop) çıkarım için 36 CPU ve 72 GPU’yu tek bir sıvı soğutmalı rafa yerleştiren GB200 NVL72 paketini sunuyor. Şirket, Amazon, Google, Microsoft ve Oracle’ın bulut hizmeti iştiraklerine NVL72’i sunmayı planlıyor. Ek olarak yine şirketlere toplam 288 CPU, 576 GPU, 240 TB bellek ve 11,5 exaflop FP4 hesaplama için sekiz sistemi bir araya getiren DGX Superpod for DGX GB200 çözümü sağlanacak.

Son sözler ve özet

Toparlayacak olursak Nvidia, Grace CPU ile Blackwell B100 GPU’nun bir kombinasyonu olan GB200 olmak üzere iki yeni çözüm duyurdu. Bu çözümün 2024 yılında piyasaya sürülmesi hedefleniyor. Blackwell B200 GPU’lar hem mevcut Hopper platformlarıyla hem de veri merkezi üreticilerinin en yeni çözümleriyle uyumlu olarak çalışacak.
Her GB200 Grace Blackwell Superchip, iki adet B200 AI GPU ve 72 adet aynı ARM Neoverse V2 çekirdeğine sahip tekil bir Grace CPU ile destekleniyor. Platform 40 PetaFlop hesaplama performansı (INT8) sunacak ve sadece HBM ile 16TB/s bellek bant genişliğinde devasa bir 864 GB bellek havuzu sunacak. Performans açısından GB200 Grace Blackwell Superchip platformu, H200 Grace Hopper platformuna göre yapay zeka performansında 30 kat artış sunacak.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir