ゼファーネットのロゴ

デルは AI の波に乗るためにハードウェアとコンサルティングを提供します

日付:

デルは、生成 AI をめぐる熱狂的な支出を利用するのが待ちきれず、オンプレミスに導入するためにハードウェア バンドルとコンサルティングのチョップを準備しました。

月曜日のテキサスのIT巨人 発表の 以下の XNUMX つの側面からなるオファー:

  • Nvidia アクセラレータを使用した推論システムの検証済み設計。
  • プロフェッショナル サービスでは、デルが顧客のワークフローやアプリケーションへの生成 AI の導入を支援します。
  • GPU を搭載した Precision ワークステーション – AI の作業に必要なデスクトップ ツール。

デルのインフラストラクチャ ソリューション グループ (ISG) の上級幹部である Varun Chhabra 氏は次のように述べています。 レグ デルは、多くの組織が「生成 AI の導入や試行、そしてそれをビジネスの利益のために適用するという点で、独特の危機感を持っている」と見ています。

したがって、検証済みの設計では、PowerEdge XE9680 などのデルのキットを使用します。 今年初めに発表は、Nvidia の AI Enterprise スイートと大規模言語モデル (LLM) 用の NeMo フレームワークで構成されるソフトウェアを使用して、最大 100 つの Nvidia HXNUMX GPU とデルのストレージで構成できます。

Chhabra氏によると、リファレンス設計には、含まれるインフラストラクチャ管理ソフトウェアの調整方法に関する詳細な仕様とガイドラインが含まれているという。

このリグは Nvidia と共同設計されており、顧客がゼロから構築するか、独自のデータで調整してきた既存のモデルをスケールアップして実用化することを目的としています。

これは、ホットな新しいワークロードが登場したときにハードウェア メーカーが常に行うこととよく似ています。つまり、ユーザーが LEGO のようなアプローチを使用してインフラストラクチャを構築できるようにバンドルを構築します。 それは特注のリグを考えるよりも速いです。

最大限の効果を得るために、生成 AI を既存のプロセスにどのように統合しますか? 複雑なプロセスをどのように自動化しますか?

Chhabra氏は、Dellのアプローチは「自然言語生成を必要とするあらゆるものに便利になるだろう。チャットボットや仮想アシスタントもその一例だ」と語った。 ソフトウェア開発も、マーケティングやコンテンツ作成と同様に人気のあるユースケースです。」

The veep は、バイナリ ブレインボックスを使い始めたばかりの場合でも、大規模なブレインボックスを構築している場合でも、デルの AI 関連のプロフェッショナル サービス担当者が AI に関するアドバイスと専門知識を提供する用意ができていると付け加えました。 コンサルタント、え? いつでも喜んでお手伝いします!

デルは、特にデータ管理とビジネス統合の支援に熱心に取り組んでいます。

「XNUMXつは、データの扱い方、どのデータソースを使用するか、そしてそのデータのセキュリティ、そしてデータが悪者の手に渡らないようにすることです」とチャブラ氏は語った。 「もう XNUMX つの側面は、最大限の効果を得るために生成 AI を既存のプロセスにどのように統合するかということです。 複雑なプロセスをどのように自動化しますか? 生成 AI インフラストラクチャとソフトウェアを既存のアプリケーションにどのように接続しますか?」

Chhabra 氏は、多くのユーザーが生成 AI から多くの潜在的な利益があると信じている一方で、同数のユーザーがリスクを認識していることを認めました。 そして彼らは かなり正しい、など 登録 読者は間違いなくよく知っています。

「私たちは皆、生成型 AI のリスク、企業データの共有リスク、およびプライバシー記録が混在し、入力されたデータで何が起こるかについて最も不明確なルールを備えたツールを使用するリスクを知っています」とチャブラ氏は述べた。

だからこそ、デルは、お客様の生成 AI イニシアチブを支援し、お客様のビジネスにある高価値のデータセットを最大限に活用できる、信頼できるパートナーとしての地位を確立したいと考えています。

Nvidia を使用した Dell Validated Design for Generative AI は、Dell の従来のチャネルと APEX IT-as-a-Service スキームを通じて世界中で利用可能です。

Big D は、開発者が遅滞なく AI に取り組むことができるようにワークステーションも調整しました。 Precision 7960、7865、および 5860 モデルは、最大 XNUMX つのモデルに適合できるようになりました。 Nvidia RTX 6000 GPU Chhabra 氏は、これにより AI ソフトウェア フレームワークを前世代の Precision ワークステーションよりも 80% 高速に実行できると主張しました。

デルはここで本当に興味深いことをやっているのでしょうか?

専門家に聞いてみました。

Canalys のチーフアナリスト、マシュー・ボール氏は「新しいテクノロジーには誇大宣伝がありますが、実際には多くの目的とプロジェクトがあります」と語り、AI サービス (コンサルティング、設計、実装、統合など) は 15 億ドルに達すると推定していると付け加えました。 2023 年の価値で。

「これは、パンデミック中に顕著になったデジタル化を早期に導入できなかった多くの組織が、現在、競合他社に取り残されることを避けるために生成型AIの導入を急いでいることによって推進されている」と同氏は述べた。

デルは大きすぎて賢すぎるので、そのラッシュを逃すことはできません。

Omdia のチーフ アナリスト、ロイ イルズリー氏は、「生成 AI は今や重要な要素になりつつある」と語ったので、どのベンダーも顧客が独自のデータに基づいてオーダーメイドのモデルを構築できる製品を必要としています。

「このテクノロジーが典型的な誇大宣伝サイクルに従えば、我々はまだ曲線の頂点に向かう途中にあると思う」とイルズリー氏は述べたが、他のテクノロジーに比べて下落幅は小さく、より早く回復すると信じていると付け加えた。 AI テクノロジーは何年も前から存在しており、LLM (基礎モデル) は人々が AI にアクセスするためのより良い方法となっています。

「はい、人々が使用できるように、これらのモデルがさらに登場するでしょうが、これらの多くは、率直に言ってゴミであるため、広く使用されることはありません。 したがって、今後 12 か月間で、モデルが溢れ、人々がそれを使用し、機能して満足するか、結果がくだらないものであるために幻滅するかのどちらかになるでしょう」と彼は説明しました。

市場がゴミをすぐに排除し、人々がよく知られた実用的なモデルに引き寄せられるという良い例は十分にある、とイルズリー氏は語った。 ®

スポット画像

最新のインテリジェンス

スポット画像