ゼファーネットのロゴ

シスコと Nvidia が連携を拡大し、AI ネットワークでイーサネットを推進

日付:

火曜日にアムステルダムで開催された Cisco Live で、エンタープライズ ネットワーキングの巨人は、Nvidia と協力して、最近誰もが好む流行語である AL/ML に合わせた一連のハードウェアおよびソフトウェア プラットフォームを発表しました。

コラボレーションの主な焦点は、標準のイーサネットを使用して AI システムの導入と管理を容易にすることであり、これは CCNA や CCNP 証明書の取得に苦労したすべての人が高く評価すると確信しています。

AI クラスターを強化する GPU が話題を独占する傾向がありますが、サポートに必要な高性能で低遅延のネットワークは非常に複雑になる場合があります。最新の GPU ノードが 200Gb/s、400Gb/s、そしてまもなく 800Gb/s の高速ネットワーキングから大きな恩恵を受けているのは事実ですが、特にトレーニングに関しては、これは方程式の一部にすぎません。これらのワークロードは XNUMX つまたは XNUMX つの GPU を備えた複数のサーバーに分散する必要があることが多いため、遅延が追加されるとトレーニング時間が長くなる可能性があります。

このため、Nvidia の InfiniBand が AI ネットワーキング導入の主流を占め続けています。 Dell'Oro Groupの企業アナリスト、Sameh Boujelbene氏との最近のインタビューで 推定 導入の約 90% がイーサネットではなく、Nvidia/Mellanox の InfiniBand を使用しているということです。

だからといって、イーサネットが普及していないというわけではありません。深いパケット バッファを備えた SmartNIC や AI に最適化されたスイッチ ASIC などの新興テクノロジーはパケット損失の抑制に役立ち、イーサネットは少なくとも InfiniBand のように動作するようになりました。

たとえば、Cisco の Silicon One G200 スイッチ ASIC は、 を見ました 昨年の夏、高度な輻輳管理、パケット スプレー技術、リンク フェイルオーバーなど、AI ネットワークに有益な機能を多数搭載しました。ただし、これらの機能は Cisco に固有のものではなく、Nvidia と Broadcom の両方が近年、同様の機能を備えたスイッチを発表していることに注意することが重要です。

Dell'Oro は、AI ネットワークにおけるイーサネットの役割が 20 年までに収益シェアの約 2027 ポイントを獲得すると予測しています。その理由の XNUMX つは、業界がイーサネットに精通していることです。 AI の導入には依然として特定の調整が必要な場合がありますが、企業はイーサネット インフラストラクチャを導入および管理する方法をすでに知っています。

この事実だけでも、Nvidia にとって Cisco のようなネットワーキング ベンダーとのコラボレーションは魅力的なものになります。これにより、Nvidia 独自の InfiniBand または Spectrum Ethernet スイッチの売上が減少する可能性がありますが、その見返りとして、完全に別個のネットワーク スタックを展開することに躊躇していた可能性のある企業に、より多くの GPU を提供できるようになります。

シスコはエンタープライズ AI の分野で活躍します

これらの取り組みをサポートするために、Cisco と Nvidia は、互換性を確保し、AI 導入をサポートするネットワーキング、ストレージ、コンピューティング インフラストラクチャの導入に関する知識のギャップに対処することを目的としたリファレンス デザインとシステムを展開しています。

これらのリファレンス デザインは、Pure Storage、NetApp、Red Hat のキットなど、企業がすでに投資していると思われるプラットフォームをターゲットとしています。当然のことながら、これらは Cisco の GPU アクセラレーション システムを推進する役割も果たします。これらには、FlexPod および FlashStack フレームワークを AI 推論ワークロードに適用するためのリファレンス デザインと自動化スクリプトが含まれます。特に小規模なドメイン固有のモデルでの推論は、 予想される AI は実行とトレーニングが比較的節約できるため、多くの人がエンタープライズ AI 導入の大部分を占めています。

FlashStack AI Cisco Verified Design (CVD) は本質的に、 方法 シスコのネットワーキングおよび GPU アクセラレーションの UCS システムを、Pure Storage のフラッシュ ストレージ アレイと並行して導入します。一方、FlexPod AI (CVD) は次のようになります。 同様のパターンですが、Pure を NetApp のストレージ プラットフォームに置き換えます。シスコは、これらは今月後半に展開する準備が整い、将来的にはさらに多くの Nvidia 支援の CVD が登場すると述べています。

Cisco の UCS コンピューティング プラットフォームについて言えば、このネットワーキング スキームは、Nvidia の最新 GPU を搭載できる X シリーズ ブレード システムのエッジ重視バージョンも展開しています。

Xダイレクトシャーシ 機能を使用 デュアルまたはクアッドソケットのコンピューティング ブレード、または GPU コンピューティング用の PCIe 拡張ノードを組み合わせて装着できる 8 つのスロット。追加の X-Fabric モジュールを使用して、システムの GPU 容量を拡張することもできます。

ただし、Nvidia の最も強力な SXM モジュールを採用している Supermicro、Dell、HPE などの多くの GPU ノードとは異なり、Cisco の UCS X Direct システムは、より低い TDP の PCIe ベースの GPU のみをサポートしているようであることは注目に値します。

データシートによると、各サーバーには、サーバーごとに最大 6 個のコンパクト GPU、または最大 2 個のデュアルスロット、フルレングス、フルハイト GPU を搭載できます。

これは、数百ギガバイトの GPU メモリを消費する大規模な言語モデルを実行しようとしている人にとっては制限となる可能性があります。ただし、エッジでのデータの前処理など、小規模な推論ワークロードを実行する場合にはおそらく十分すぎるでしょう。

シスコは、製造業、ヘルスケア、小規模データセンターを運営する企業を対象にプラットフォームを開発しています。 ®

スポット画像

最新のインテリジェンス

スポット画像