
Nvidia’nın yeni yapay zeka işlemcisi Blackwell, uzun süredir merakla bekleniyordu ve sonunda Microsoft’un Azure bulut platformunda kullanıma sunuldu. Bu gelişme, yapay zeka alanında önemli bir dönüm noktası olarak görülüyor. Çünkü Blackwell işlemciler, günümüzün devasa dil modellerinin (LLM) gerektirdiği muazzam işlem gücünü karşılamak için özel olarak tasarlandı.
Microsoft Azure, Nvidia’nın yeni çipini kullanmaya başlıyor
Microsoft, Nvidia’nın en yeni Blackwell işlemcilerini kullanan yapay zeka sunucularını devreye aldığını ve bu sunucuların gelişmiş sıvı soğutma sistemleriyle donatıldığını duyurdu. Bu, Microsoft’u, Blackwell tabanlı işlemcileri kullanan ilk bulut sağlayıcısı yapıyor ve yapay zeka alanındaki liderlik iddiasını güçlendiriyor.

Peki, Blackwell’i bu kadar özel kılan ne? Öncelikle GB200 olarak adlandırılan işlemci, aslında iki adet Blackwell B200 GPU ve bir adet Grace CPU’nun birleşiminden oluşan bir süper çip. Her bir GPU, 192GB HBM3E belleğe sahipken, CPU 512GB LPDDR5 belleğe erişebiliyor. Bu da toplamda 896GB gibi muazzam bir birleşik bellek anlamına geliyor. Tüm bu bileşenler, ultra hızlı veri aktarımı sağlayan NVLINK teknolojisiyle birbirine bağlı. Ayrıca GB200, GB200 NVL72 platformunda 72 GPU ve 36 CPU içeren bir raf sistemi olarak da sunuluyor ve tek bir NVLINK domaini içinde 512 GPU’ya kadar ölçeklenebiliyor.
Microsoft, beklenen güncellemeyi getirdi!
Performans tarafında ise Blackwell’in B200 GPU’su, önceki nesil H100 işlemcilerine kıyasla FP8 ve INT8 performansında 2.5 kat daha yüksek işlem kapasitesi sunuyor. Bu da, büyük dil modellerinin çok daha hızlı ve verimli bir şekilde eğitilmesini mümkün kılıyor. 4.500 TFLOPS/TOPS seviyesine ulaşan işlemci, FP4 veri formatında ise 9 PFLOPS gibi inanılmaz bir işlem gücüne ulaşıyor.
Ancak bu kadar yüksek performans, beraberinde yüksek enerji tüketimi ve ısıyı da getiriyor. İşte bu noktada Microsoft’un gelişmiş sıvı soğutma sistemi devreye giriyor. GB200 tabanlı NVL72 sunucuları yaklaşık 120 kW enerji tüketiyor ve muazzam bir ısı üretiyor. Bu nedenle, sistemin üçte ikisinin soğutmaya ayrılmış olması şaşırtıcı değil.
Microsoft’un bu yeni donanım altyapısı, yapay zeka alanında büyük bir atılım yaratma potansiyeline sahip. Özellikle ChatGPT gibi yapay zeka modellerini geliştiren OpenAI’ın Azure platformunu kullanması, Microsoft’un bu alandaki avantajını daha da artırıyor. Blackwell tabanlı bu sunucuların ticari olarak yaygınlaşması ise 2024 sonu veya 2025 başı gibi gerçekleşecek. Microsoft’un 18-22 Kasım 2024 tarihlerinde düzenleyeceği Ignite konferansında, Blackwell tabanlı sunucular hakkında daha detaylı bilgi vermesi bekleniyor.
Yesilrobot.com e-bültenine kaydolarak, her hafta 15 bine yakın Yeşil Robot okurunun yaptığı gibi, tüm güncellemeleri E-posta kutunuzdan takip edebilirsiniz. Abonelik için tıklayınız