ゼファーネットのロゴ

AIの電力需要の管理に役立つと見なされるグリーンデータセンター

日付:

ウランチャブにある新しいファーウェイノースチャイナクラウドデータセンターは、モデルグリーンデータセンターとして設計されました。 (写真提供:Huawei)

AIトレンドスタッフ別

ファーウェイはウランチャブにクラウドデータセンターを構築しました。 モデルグリーンデータセンターであることに固執しています。

中国の多国籍テクノロジー企業は、スポンサー付きの投稿でアカウントを公開しました 登録、モンゴルの都市ウランチャブに新しいデータセンターを構築する取り組みについて説明します。

電力使用効率(PUE)は、「グリーンネス」またはエネルギー効率の尺度と見なされます。PUEは、ITプロフェッショナルの非営利組織であるGreenGridによって2006年に導入されました。 これは、データセンターのエネルギー効率を報告するために最も一般的に使用される指標になりました。 値が高いほど、効率は低下します。

Huaweiは、ウランチャブのクラウドデータセンターが1.15年の平均PUEが1.58であるのに対し、年間PUEは2020と低いと報告しています。 アップタイムインスティテュート。 「データ効率の向上は横ばいになっています」と、2007年から2013年までのエネルギー効率の向上を示す折れ線グラフの見出しと、それ以降はほぼ横ばいであると述べています。

Huaweiは、iCoolingと呼ばれる熱管理システムを開発しました。これは、機械学習と深層学習に依存して、履歴データを分析し、エネルギー消費に影響を与える主要な要因を特定します。 理想的なパラメータは、最適化アルゴリズムによって生成され、さまざまな制御システムに送信されます。

同社は、中国北部の廊坊市にあるクラウドデータセンターで、iCoolingの導入後に8%のPUE改善が見られたと報告しました。 中国中北部の寧夏回族自治区にあるもう3.2つのチャイナモバイルデータセンターであるiCoolingの導入により、総エネルギー消費量が400,000%削減され、年間XNUMX万kWh以上の電力が節約されました。 Huaweiは、データセンターの負荷が増加し、AIシステムが学習するにつれて、時間の経過とともにメリットが向上することを期待しています。 年間XNUMX万kWhの電力節約が見込まれ、これは約XNUMX万キログラムの二酸化炭素排出量の削減に相当します。

Huaweiは、フォールトトレランスとネットワーク運用管理製品にもAIを使用しています。 iPowerインテリジェント電源および配電技術は、差し迫ったデバイスおよびコンポーネントの障害を予測するために使用するシステムから情報を収集します。 リカバリはXNUMX秒未満の速度で実行できるため、全体的な信頼性が向上します。 iPowerは、バッテリーの状態と寿命を監視するためにも使用できるため、効果的な予知保全が可能です。

HuaweiのiManagerデータセンターインフラストラクチャ管理システムは、インテリジェントなハードウェアとIoTセンサーを使用して電力、冷却、スペースを管理し、資産の割り当てと運用を管理するAIで使用率を最適化します。 iManagerは、リソース使用率を推定20%向上させることができます。 iManagerは、さまざまな場所にある複数のデータセンターの中央ネットワーク管理をサポートすることもできます。

電力消費を管理する方法に目を向ける注意

グリーンデータセンターを追求しているIT管理者も、電力消費に非常に精通しています。 AIは多くの電力を消費します。 昨年、マサチューセッツ大学アマースト校の調査によると、自然言語処理用のXNUMXつの大きなAIモデルであるGoogleのBERT自然言語処理技術をトレーニングすると、同等の量のCOを生成するのに十分な電力が使用されました。2 最近の報告によると、XNUMX人の大西洋横断飛行の往復として EE Times.

その見積もりは、XNUMX回トレーニングされたXNUMXつのモデルに対するものです。 実際には、モデルは通常、開発中に何度も調整および再トレーニングされます。 AutoMLなどの手法を追加してモデルを調整すると、合計が同じ量のCOにジャンプする可能性があります2 XNUMX台のアメリカ車の生涯排出量として。 企業はAIアクセラレーターを利用して、支援できるかどうかを確認しています。

IBM Cognitive Systems、テクニカルコンピューティングの元VP、David Turek

AIの計算に使用されるエネルギーの量は、システムアーキテクチャとアプリケーションのコンテキストによって異なります。 「モデルのトレーニングからモデルの展開までの計算能力の階層は、インフラストラクチャーに直接影響を及ぼし、消費されるエネルギー量にも直接影響を及ぼします」と、IBM CognitiveSystemsの元テクニカルコンピューティング担当副社長であるDavidTurek氏は述べています。 )。 チームがモデルをトレーニングする方法は、消費されるエネルギーに影響します。

フェデレーションモデル手法を使用して、データセンターではなくエッジで増分モデル更新を処理できます。 電力プロファイルは、エッジに配置された処理タイプによって決定されます。 データセンターのインフラストラクチャはほとんど固定されており、ワークフローを調整することがエネルギーを節約するための最適な方法であるとTurek氏は提案しました。

「それは、ワークフローに適用されるインテリジェンスについてであり、これを使用して、自分と固定システムで利用可能なエネルギーを展開するための最適な方法を調整できます」とTurek氏は述べています。 オペレーターは、エネルギーバジェットとエネルギー消費を考慮して、ハードウェアインフラストラクチャでスケジュールを割り当てることができます。

Supermicroデータセンターの調査によると、エネルギー管理は優先事項ではありません

ITデータセンター向けのサーバーとストレージのサプライヤーであるSupermicroによる最近の調査によると、現在のベストプラクティスを使用していないデータセンターによって、お金がテーブルに残されています。 たとえば、今日のデータセンターは、パフォーマンスと信頼性を維持するために華氏73〜77度(摂氏23〜25度)に冷却する必要はありません。

Supermicro、マーケティングおよびネットワークセキュリティ担当副社長、Michael McNerney

Supermicroのマーケティングおよびネットワークセキュリティ担当バイスプレジデントであるMichaelMcNerneyは、次のように述べています。

Supermicroは、地理や業界の断面からの2019のデータセンターオペレーターとIT実務家からの回答に基づいて、1,362年のXNUMX回目の年次データセンター環境レポートを発行しました。

調査では、サーバーの入口温度が華氏15度(74.3°C)であるのに対し、ラックあたりの平均電力密度は23.5kWであり、サーバーは4.1。12年ごとに更新されました。 調査回答者の25%が運営する、高度に最適化されたグリーン設計のデータセンターの電力密度はラックあたり79.7kWを超え、平均入口温度は華氏26.5度(XNUMX°C)でしたが、サーバーはXNUMX〜XNUMX年ごとに交換されました。

データセンターは、エネルギーコストの管理に高い優先順位を置いていることがわかりませんでした。 「会社の設備予算は、ハードウェアの取得コストおよびシステムの資本取得コストとは別であり、人件費とは別であることがわかりました。 それらはすべて一緒に最適化されているわけではありません」とMcNerney氏は述べています。

AI処理にグラフィックスプロセッシングユニット(GPU)ハードウェアを使用すると、速度と処理時間単位あたりの費用が高くなるというトレードオフが発生します。 GPUサプライヤであるNVIDIAの高速コンピューティングの製品管理責任者であるPareshKharya氏は、電気料金がデータセンターの運用コストの最大25%を占めると示唆しています。

彼は、トレードオフについて考える方法として「解決までの平均時間」という用語を使用しています。 たとえば、CPUのみのサーバーで画像認識のためにResNet-50モデルをトレーニングするには、最大100週間かかる可能性がありますが、Nvidia VXNUMXGPUを搭載したサーバーではXNUMX日未満でトレーニングできます。

「GPUを搭載した個々のサーバーは(同等のCPUよりも)多くのエネルギーを消費しますが、解決までの時間が劇的に短縮されます。 したがって、[AIワークロードの]全体的なエネルギー消費量は、GPUアクセラレータを使用すると20〜25分のXNUMXに減少します」と彼は提案しました。

ソースの記事と情報を読む 登録アップタイム研究所 または EE Times.

出典:https://www.aitrends.com/infrastructure-for-ai/green-data-centers-seen-as-helping-manage-ai-power-demands/

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?