Zephyrnet Logosu

Cisco ve Nvidia, AI ağlarında Ethernet'i desteklemek için iş birliğini genişletiyor

Tarih:

Salı günü Amsterdam'da düzenlenen Cisco Live'da, kurumsal ağ oluşturma devi, Nvidia ile işbirliği içinde, bugünlerde herkesin en çok konuşulan sözcüğüne göre uyarlanmış bir dizi donanım ve yazılım platformunu duyurdu: AL/ML.

İşbirliğinin temel odak noktalarından biri, yapay zeka sistemlerinin standart Ethernet kullanılarak dağıtılmasını ve yönetilmesini kolaylaştırmaktır; bu, CCNA ve/veya CCNP sertifikalarını almakta zorluk çeken herkesin takdir edeceğinden emin olduğumuz bir şeydir.

Yapay zeka kümelerine güç veren GPU'lar konuşmaya hakim olma eğilimindeyken, desteklemek için gereken yüksek performanslı, düşük gecikmeli ağlar oldukça karmaşık olabilir. Modern GPU düğümlerinin hızlı 200 Gb/s, 400 Gb/s ve yakında 800 Gb/s ağ bağlantısından büyük ölçüde yararlandığı doğru olsa da, bu özellikle eğitim söz konusu olduğunda denklemin yalnızca bir kısmıdır. Bu iş yüklerinin genellikle dört veya sekiz GPU içeren birden fazla sunucuya dağıtılması gerektiğinden, herhangi bir ek gecikme, eğitim sürelerinin uzamasına neden olabilir.

Bu nedenle Nvidia'nın InfiniBand'ı yapay zeka ağ dağıtımlarında hakim olmaya devam ediyor. Dell'Oro Group'un kurumsal analisti Sameh Boujelbene ile yakın zamanda yapılan bir röportajda tahmini dağıtımların yaklaşık yüzde 90'ının Ethernet değil Nvidia/Mellanox'un InfiniBand'ını kullandığını söyledi.

Bu, Ethernet'in ilgi görmediği anlamına gelmiyor. SmartNIC'ler ve derin paket arabelleklerine sahip yapay zeka için optimize edilmiş anahtar ASIC'leri gibi yeni ortaya çıkan teknolojiler, paket kaybını azaltmaya yardımcı oldu ve Ethernet'in en azından daha çok InfiniBand gibi davranmasını sağladı.

Örneğin, Cisco'nun Silicon One G200 anahtarı ASIC'i baktım geçen yaz, gelişmiş tıkanıklık yönetimi, paket püskürtme teknikleri ve bağlantı yük devretme dahil olmak üzere yapay zeka ağları için faydalı bir dizi özelliğe sahiptir. Ancak bu özelliklerin Cisco'ya özgü olmadığını ve Nvidia ile Broadcom'un son yıllarda benzer özelliklere sahip anahtarları duyurduklarını belirtmek önemlidir.

Dell'Oro, Ethernet'in yapay zeka ağlarındaki rolünün 20 yılına kadar yaklaşık 2027 puanlık gelir paylaşımı elde edeceğini öngörüyor. Bunun nedenlerinden biri de sektörün Ethernet'e olan aşinalığıdır. Yapay zeka dağıtımları hala özel ayarlamalar gerektirse de kuruluşlar Ethernet altyapısını nasıl dağıtacaklarını ve yöneteceklerini zaten biliyor.

Tek başına bu gerçek, Cisco gibi ağ sağlayıcılarıyla işbirliklerini Nvidia için çekici bir fırsat haline getiriyor. Her ne kadar Nvidia'nın kendi InfiniBand veya Spectrum Ethernet anahtarlarının satışlarını azaltsa da bunun getirisi, aksi takdirde tamamen ayrı bir ağ yığını kurma ihtimaline karşı çıkacak olan işletmelerin eline daha fazla GPU verme yeteneği olacaktır.

Cisco kurumsal yapay zeka açısını oynuyor

Bu çabaları desteklemek için Cisco ve Nvidia, uyumluluğu sağlamayı ve yapay zeka dağıtımlarını destekleyecek şekilde ağ oluşturma, depolama ve bilgi işlem altyapısı dağıtımına yönelik bilgi boşluklarını gidermeye yardımcı olmayı amaçlayan referans tasarımları ve sistemleri kullanıma sundu.

Bu referans tasarımları, Pure Storage, NetApp ve Red Hat kitleri de dahil olmak üzere işletmelerin halihazırda yatırım yapmış olabileceği platformları hedef alıyor. Şaşırtıcı olmayan bir şekilde, Cisco'nun GPU hızlandırmalı sistemlerini de zorlamaya hizmet ediyorlar. Bunlar, FlexPod ve FlashStack çerçevelerini yapay zeka çıkarım iş yüklerine uygulamaya yönelik referans tasarımları ve otomasyon komut dosyalarını içerir. Çıkarımlama, özellikle küçük alana özgü modellerde, beklenen Çalıştırılması ve eğitilmesi nispeten tutumlu olduğundan çoğu kişi tarafından kurumsal yapay zeka dağıtımlarının büyük bir kısmı oluşturuluyor.

FlashStack AI Cisco Doğrulanmış Tasarım (CVD), esasen nasıl Pure Storage'ın flash depolama dizilerinin yanı sıra Cisco'nun ağ oluşturma ve GPU ile hızlandırılmış UCS sistemlerini dağıtın. Bu arada FlexPod AI (CVD), takip et benzer bir model, ancak Pure'u NetApp'in depolama platformuyla değiştirir. Cisco, bunların bu ayın sonlarında kullanıma sunulmaya hazır olacağını ve gelecekte daha fazla Nvidia destekli CVD'nin geleceğini söylüyor.

Cisco'nun UCS hesaplama platformundan bahsetmişken, ağ şeması aynı zamanda X-Serisi blade sistemlerinin Nvidia'nın en yeni GPU'larıyla donatılabilen uç odaklı bir versiyonunu da piyasaya sürdü.

X Direct şasisi Özellikler GPU hesaplaması için çift veya dört soketli bilgi işlem blade'lerinin veya PCIe genişletme düğümlerinin birleşimiyle doldurulabilen sekiz yuva. Sistemin GPU kapasitesini genişletmek için ek X-Fabric modülleri de kullanılabilir.

Bununla birlikte, Nvidia'nın en güçlü SXM modüllerini kullanan Supermicro, Dell, HPE ve diğerlerinden gördüğümüz birçok GPU düğümünün aksine, Cisco'nun UCS X Direct sisteminin yalnızca daha düşük TDP PCIe tabanlı GPU'ları desteklediğini belirtmekte fayda var.

Veri sayfasına göre her sunucu, sunucu başına altı adede kadar kompakt GPU veya iki adede kadar çift yuvalı, tam uzunlukta, tam yükseklikte GPU ile donatılabilir.

Bu muhtemelen yüzlerce gigabaytlık GPU belleği tüketen devasa büyük dil modellerini çalıştırmak isteyenler için sınırlayıcı olacaktır. Bununla birlikte, uçta veri ön işleme gibi şeyler için daha küçük çıkarım iş yüklerini çalıştırmak için muhtemelen fazlasıyla yeterlidir.

Cisco, platformu üretim, sağlık hizmetleri ve küçük veri merkezlerini işletenleri hedefliyor. ®

spot_img

En Son İstihbarat

spot_img