Nvidia Pazartesi günü yapay zeka için en üst düzey çipine yeni özellikler ekledi ve yeni teklifin önümüzdeki yıl Amazon.com, Alphabet'in Google ve Oracle ile sunulmaya başlayacağını söyledi.
Çip olarak adlandırılan H200, Nvidia'nın mevcut en iyi H100 çipini geride bırakacak. Birincil yükseltme, çipin ne kadar veriyi hızlı bir şekilde işleyebileceğini tanımlayan en maliyetli parçalarından biri olan daha yüksek bant genişliğine sahip bellek.
Nvidia, yapay zeka çipleri pazarına hakim ve OpenAI'nin ChatGPT hizmetine ve sorgulara insan benzeri yazılarla yanıt veren benzer birçok üretken yapay zeka hizmetine güç veriyor. Daha fazla yüksek bant genişliğine sahip belleğin ve çipin işlem elemanlarına daha hızlı bir bağlantının eklenmesi, bu tür hizmetlerin daha hızlı bir şekilde cevap verebileceği anlamına geliyor.
H200, bir önceki H100'de 80 gigabayt olan yüksek bant genişliğine sahip belleği 141 gigabayta çıkarıyor. Nvidia yeni çipteki bellek için tedarikçilerini açıklamadı, ancak Micron Technology Eylül ayında bir Nvidia tedarikçisi olmak için çalıştığını söyledi.
Nvidia ayrıca geçen ay yapay zeka çiplerinin satışları canlandırmaya yardımcı olduğunu söyleyen Koreli SK Hynix'ten de bellek satın alıyor.
Nvidia Çarşamba günü yaptığı açıklamada, özel yapay zeka bulut sağlayıcıları CoreWeave, Lambda ve Vultr'a ek olarak Amazon Web Services, Google Cloud, Microsoft Azure ve Oracle Cloud Infrastructure'ın H200 çiplerine erişim sunan ilk bulut hizmeti sağlayıcıları arasında yer alacağını söyledi.