ゼファーネットのロゴ

Meta が AMD、Nvidia GPU と並行してカスタム AI チップを導入

日付:

長年の開発を経て、メタ社はついに今年、自社製の AI アクセラレーターを有意義な方法で展開するかもしれません。

Facebook 帝国は今週、Nvidia H100 および AMD MI300X GPU の導入を自社の Meta Training Inference Accelerator (MTIA) ファミリのチップで補完したいという意向を確認しました。具体的には、Meta は推論に最適化されたプロセッサを導入します。 伝えられるところによると、コードネームはアルテミス、シリコンバレーの巨人の第一世代の部品をベースにしています いじめられた 昨年。

Metaの広報担当者は「MTIAを活用した社内シリコンへの取り組みの進展に興奮しており、2024年には推論バリアントの運用環境への導入開始に向けて順調に進んでいる」と語った。 登録 木曜日に。

「社内で開発したアクセラレータは、メタ固有のワークロードでパフォーマンスと効率の最適な組み合わせを提供するという点で、市販の GPU を高度に補完すると考えています」と担当者は続けました。詳細?いいえ。広報担当者は「今年後半に今後のMTIA計画についてさらなる最新情報を共有できることを楽しみにしている」と語った。

私たちはこれを、推論用の第 1 世代のラボ専用バージョンに続いて、第 2 世代の推論に焦点を当てたチップが広く展開されていることを意味すると解釈しており、主にトレーニングまたはトレーニングと推論を目的とした部分については後で判明する可能性があります。

Meta は、AI ワークロードの展開が拡大し、機械学習ソフトウェアを可能な限り高速に実行するために特殊なシリコンの必要性と使用量が増加するにつれて、Nvidia と AMD の最良の顧客の 1 つになりました。したがって、インスタグラムの巨人が独自のカスタムプロセッサを開発するという決定は、それほど驚くべきことではない。

実際、この巨大企業は、表面上は、現実世界への展開という点では、カスタム AI シリコン パーティに比べて比較的遅れています。 Amazon と Google はここ数年、自社製コンポーネントを使用して、レコメンダー モデルや顧客 ML コードなどの内部機械学習システムを高速化してきました。一方、マイクロソフトは昨年、自社開発のアクセラレーターを発表した。

しかし、Meta が MTIA 推論チップを大規模に展開しているという事実以外に、このソーシャル ネットワークはその正確なアーキテクチャや、どのワークロードを社内シリコン用に予約し、どのワークロードを AMD と Nvidia の GPU にオフロードしているのかについても明らかにしていません。

おそらく Meta は、確立されたモデルを自社のカスタム ASIC 上で実行して、より動的または進化するアプリケーションのために GPU リソースを解放するでしょう。データをオフロードし、集中的なビデオ ワークロードを計算するように設計されたカスタム アクセラレータを使用して、Meta がこの道をたどるのを以前にも見てきました。

基本的な設計に関して、セミアナリシスの業界ウォッチャーは、新しいチップはメタの第一世代部品のアーキテクチャに密接に基づいていると語ります。

飛び石

Meta の MTIA v2023 パーツは、1 年間の開発を経て XNUMX 年初めに発表されました。 次のプラットフォーム を見ました 昨年の春、ディープラーニングのレコメンダー モデルを念頭に置いて特別に設計されました。

第 7 世代のチップは RISC-V CPU クラスターを中心に構築され、TSMC の 128nm プロセスを使用して製造されました。このコンポーネントは、内部的には 128 つの RV CPU コアを備えた 5 行 XNUMX 列の処理要素マトリックスを採用しており、そのうちの XNUMX つはベクトル演算拡張機能を備えています。これらのコアは、豊富な XNUMXMB のオンチップ SRAM と最大 XNUMXGB の LPDDRXNUMX メモリから供給されます。

昨年Metaが主張したように、このチップは800MHzで動作し、INT102.4性能で毎秒8兆回の演算、または半精度(FP51.2)で16テラFLOPSに達した。比較すると、Nvidia の H100 は、ほぼ 8 ペタ FLOPS のスパース FP25 パフォーマンスを実現します。 Nvidia や AMD の GPU ほど強力ではありませんが、このチップには消費電力という大きな利点がありました。チップ自体の熱設計電力はわずか XNUMX ワットでした。

による 半分析, Metaの最新チップは改良されたコアを誇り、LPDDR5をTSMCのチップ・オン・ウェーハ・オン・サブストレート(CoWoS)技術を使用してパッケージ化された高帯域幅メモリと交換します。

もう 1 つの注目すべき違いは、Meta の第 2 世代チップが実際にデータセンター インフラストラクチャ全体に広く導入されることです。 Facebook の巨人によると、第 1 世代の部分は本番広告モデルの実行に使用されましたが、研究所から出されることはありませんでした。

汎用人工知能を追いかける

カスタムパーツはさておき、FacebookとInstagramの親会社は放棄した 従来の CPU プラットフォームには不向きなあらゆる種類のタスクを高速化するために、近年 GPU に多額の投資が行われています。しかし、GPT-4 や Meta 独自の Llama 2 などの大規模な言語モデルの台頭により状況が変わり、大規模な GPU クラスターの展開が推進されました。

Meta が運営する規模において、これらの傾向により、インフラストラクチャに対する大幅な変更が必要になりました。 再設計 複数のデータセンターを統合して、大規模な AI 導入に伴う膨大な電力と冷却の要件をサポートします。

そして、メタバースがメタバースからメタバースへと焦点を移すにつれて、メタの展開は今後数か月間でさらに大規模になるだろう。 開発 汎用人工知能のこと。おそらく、AI で行われた作業は、メタバースなどの形成に役立つでしょう。

CEO の Mark Zuckerberg 氏によると、Meta は今年だけで 350,000 台もの Nvidia H100 を導入する予定だという。

同業界はまた、AMD の新たな製品を導入する計画も発表しました。 打ち上げ データセンターの MI300X GPU。ザッカーバーグ氏は、彼の会社は600,000万台のH100と同等の計算能力で年末を迎えるだろうと主張した。したがって、明らかに Meta の MTIA チップがすぐに GPU に置き換わることはありません。 ®

スポット画像

最新のインテリジェンス

スポット画像