شعار زيفيرنت

تقوم Cisco وNvidia بتوسيع نطاق التعاون لدفع شبكة Ethernet في شبكات الذكاء الاصطناعي

التاريخ:

في Cisco Live في أمستردام يوم الثلاثاء، أعلن عملاق شبكات المؤسسات عن سلسلة من منصات الأجهزة والبرامج بالتعاون مع Nvidia المصممة خصيصًا للكلمة الطنانة المفضلة لدى الجميع هذه الأيام: AL/ML.

التركيز الرئيسي للتعاون هو تسهيل نشر أنظمة الذكاء الاصطناعي وإدارتها باستخدام شبكة إيثرنت القياسية، وهو أمر نحن على يقين من أن جميع أولئك الذين واجهوا مشاكل في الحصول على شهادات CCNA و/أو CCNP سيقدرونه.

في حين أن وحدات معالجة الرسومات التي تشغل مجموعات الذكاء الاصطناعي تميل إلى السيطرة على المحادثة، فإن الشبكات عالية الأداء ومنخفضة زمن الاستجابة المطلوبة لدعمها يمكن أن تكون معقدة للغاية. في حين أنه من الصحيح أن عقد GPU الحديثة تستفيد بشكل كبير من الشبكات السريعة 200 جيجابت/ثانية، و400 جيجابت/ثانية، وقريبًا 800 جيجابت/ثانية، إلا أن هذا ليس سوى جزء من المعادلة، خاصة عندما يتعلق الأمر بالتدريب. نظرًا لأن أحمال العمل هذه غالبًا ما يجب توزيعها عبر خوادم متعددة تحتوي على أربع أو ثماني وحدات معالجة رسومات، فإن أي زمن انتقال إضافي يمكن أن يؤدي إلى أوقات تدريب ممتدة.

ولهذا السبب، يستمر InfiniBand من Nvidia في السيطرة على عمليات نشر شبكات الذكاء الاصطناعي. في مقابلة أجريت مؤخرا مع المحلل المؤسسي لمجموعة Dell'Oro Group سامح بوجلبان مقدر أن حوالي 90 بالمائة من عمليات النشر تستخدم InfiniBand من Nvidia/Mellanox - وليس Ethernet.

هذا لا يعني أن شبكة Ethernet لا تكتسب زخمًا. ساعدت التقنيات الناشئة، مثل بطاقات NIC الذكية وشرائح ASIC للمحولات المحسّنة للذكاء الاصطناعي والمزودة بمخازن مؤقتة عميقة للحزم، على الحد من فقدان الحزم، مما يجعل Ethernet على الأقل يتصرف مثل InfiniBand.

على سبيل المثال، يقوم جهاز Silicon One G200 من شركة Cisco بتبديل ASIC، والذي نقوم نظرت إلى في الصيف الماضي، تفتخر بعدد من الميزات المفيدة لشبكات الذكاء الاصطناعي، بما في ذلك إدارة الازدحام المتقدمة، وتقنيات رش الحزم، وتجاوز فشل الارتباط. ولكن من المهم ملاحظة أن هذه الميزات ليست فريدة من نوعها لشركة Cisco، وقد أعلنت كل من Nvidia وBroadcom عن محولات ذات قدرة مماثلة في السنوات الأخيرة.

تتوقع Dell'Oro أن يستحوذ دور Ethernet في شبكات الذكاء الاصطناعي على حوالي 20 نقطة من حصة الإيرادات بحلول عام 2027. وأحد أسباب ذلك هو إلمام الصناعة بشبكة Ethernet. في حين أن عمليات نشر الذكاء الاصطناعي قد لا تزال تتطلب ضبطًا محددًا، فإن المؤسسات تعرف بالفعل كيفية نشر البنية التحتية لشبكة إيثرنت وإدارتها.

هذه الحقيقة وحدها تجعل التعاون مع موردي الشبكات مثل Cisco احتمالًا جذابًا لشركة Nvidia. على الرغم من أن ذلك قد يؤدي إلى خفض مبيعات محولات InfiniBand أو Spectrum Ethernet الخاصة بشركة Nvidia، إلا أن المردود هو القدرة على وضع المزيد من وحدات معالجة الرسومات في أيدي المؤسسات التي ربما كانت سترفض احتمال نشر حزمة شبكة منفصلة تمامًا.

تلعب Cisco زاوية الذكاء الاصطناعي للمؤسسة

لدعم هذه الجهود، طرحت Cisco وNvidia تصميمات وأنظمة مرجعية تهدف إلى ضمان التوافق والمساعدة في معالجة الفجوات المعرفية لنشر البنية التحتية للشبكات والتخزين والحوسبة لدعم عمليات نشر الذكاء الاصطناعي الخاصة بهما.

تستهدف هذه التصميمات المرجعية الأنظمة الأساسية التي من المحتمل أن تكون المؤسسات قد استثمرت فيها بالفعل، بما في ذلك مجموعة أدوات من Pure Storage وNetApp وRed Hat. ومن غير المستغرب أنها تعمل أيضًا على دفع أنظمة GPU المتسارعة من Cisco. يتضمن ذلك التصميمات المرجعية والبرامج النصية للأتمتة لتطبيق أطر عمل FlexPod وFlashStack على أعباء عمل استنتاج الذكاء الاصطناعي. الاستدلال، خاصة في النماذج الخاصة بالمجال الصغير، هو متوقع من قبل الكثيرين لتشكل الجزء الأكبر من عمليات نشر الذكاء الاصطناعي للمؤسسات نظرًا لأنها اقتصادية نسبيًا في التشغيل والتدريب.

يعد FlashStack AI Cisco Verified Design (CVD) بمثابة دليل أساسي لـ كيف نشر شبكات Cisco وأنظمة UCS المُسرَّعة بواسطة وحدة معالجة الرسومات جنبًا إلى جنب مع مصفوفات تخزين الفلاش الخاصة بـ Pure Storage. في هذه الأثناء، يبدو أن FlexPod AI (CVD). اتباع نمط مشابه، لكنه يستبدل Pure بمنصة التخزين الخاصة بـ NetApp. وتقول شركة Cisco إن هذه الأجهزة ستكون جاهزة للطرح في وقت لاحق من هذا الشهر، مع ظهور المزيد من أقراص CVD المدعومة من Nvidia في المستقبل.

عند الحديث عن منصة الحوسبة UCS من Cisco، فقد طرح مخطط الشبكات أيضًا نسخة تركز على الحافة من أنظمة الشفرات X-Series الخاصة بها والتي يمكن تجهيزها بأحدث وحدات معالجة الرسومات من Nvidia.

هيكل X Direct ملامح ثماني فتحات يمكن ملؤها بمزيج من الشفرات الحسابية المزدوجة أو الرباعية المقابس، أو عقد توسيع PCIe لحساب وحدة معالجة الرسومات. يمكن أيضًا استخدام وحدات X-Fabric الإضافية لتوسيع سعة وحدة معالجة الرسومات الخاصة بالنظام.

ومع ذلك، تجدر الإشارة إلى أنه على عكس العديد من عقد GPU التي رأيناها من Supermicro وDell وHPE وغيرها، والتي تستخدم أقوى وحدات SXM من Nvidia، يبدو أن نظام UCS X Direct من Cisco يدعم فقط وحدات معالجة الرسوميات الأقل المستندة إلى TDP PCIe.

وفقًا لورقة البيانات، يمكن تجهيز كل خادم بما يصل إلى ستة وحدات معالجة رسوميات مدمجة لكل خادم، أو ما يصل إلى وحدتي معالجة رسوميات مزدوجتي الفتحة وكاملتي الطول والارتفاع.

من المحتمل أن يكون هذا مقيدًا لأولئك الذين يتطلعون إلى تشغيل نماذج لغوية كبيرة الحجم تستهلك مئات الجيجابايت من ذاكرة وحدة معالجة الرسومات. ومع ذلك، ربما يكون أكثر من كافٍ لتشغيل أحمال عمل استدلالية أصغر، لأشياء مثل المعالجة المسبقة للبيانات على الحافة.

تستهدف Cisco النظام الأساسي في التصنيع والرعاية الصحية وأولئك الذين يديرون مراكز البيانات الصغيرة. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة