ゼファーネットのロゴ

Meta が Nvidia に対抗する新世代 AI チップを発表 – Tech Startups

日付:

Meta Platforms は、自社の人工知能アクセラレータ チップの次期バージョンである最新の進歩の幕を開けました。メタ社は、同社がAIチップの開発を発表してから2か月後の水曜日、新世代のAIチップの詳細を発表した。 新しいカスタム AI チップを構築する AI イニシアチブを推進するために。

Meta によると、次世代のその大規模なインフラストラクチャは、AI を中核として細心の注意を払って設計されています。この戦略的な動きは、新しい生成 AI 製品、洗練されたレコメンデーション システム、最先端の AI 研究のサポートを強化することを目的としています。これは、ますます複雑化する AI モデルによる計算需要の増大に合わせて規模を拡大できるように準備された、計算された投資です。

最近のブログ投稿でメタ氏は詳しく述べ、「このチップのアーキテクチャは基本的に、ランキングおよび推奨モデルを提供するためのコンピューティング、メモリ帯域幅、およびメモリ容量の適切なバランスを提供することに重点を置いている」と述べています。

特に、Meta は昨年、Meta Training and Inference Accelerator (MTIA) v1 を発表していました。これは、社内で設計され、Meta 独自の AI ワークロードに合わせて細心の注意を払って調整された先駆的な AI 推論アクセラレータです。ディープ ラーニング レコメンデーション モデル向けに特に磨き上げられた MTIA v1 は、Meta のアプリとテクノロジーのスイート全体で無数のユーザー エクスペリエンスを強化するのに役立ちました。

Meta 氏は、MTIA の最新バージョンは、カスタマイズされたシリコンの包括的な開発計画の重要な部分であり、特に当社の独自のタスクとシステムに取り組むために設計されていると付け加えました。

「この新しいバージョンの MTIA は、ワークロードとの緊密な連携を維持しながら、以前のソリューションのコンピューティング帯域幅とメモリ帯域幅を 2 ​​倍以上に拡張します。これは、ユーザーに高品質の推奨事項を提供するランキングおよび推奨モデルを効率的に提供するように設計されています」とメタ氏は述べています。 ブログ投稿.

このチップのアーキテクチャは、計算能力、メモリ帯域幅、容量の間で適切なバランスを取ることを優先しており、特にランキングおよび推奨モデルに合わせて調整されています。

ソーシャル巨人である同社は、すでに自社のデータセンターにMTIAを実装しており、現実世界のシナリオでモデルを積極的に実行していると述べた。早期のフィードバックは有望な結果を示し、要求の厳しい AI タスクにより多くの計算リソースを割り当てることができます。初期テストでは、この MTIA チップが、Meta 製品の重要なコンポーネントである単純および複雑なランキングおよび推奨モデルの両方を効果的に処理できることが実証されました。システム全体をエンドツーエンドで制御するため、既製の GPU と比較して高い効率を実現します。

そんな中、先ほど レポート 今年のロイター通信の記事は、Facebook、Instagram、WhatsApp で AI 主導の製品を実行するために必要な計算需要の急増に対処するために、カスタム データセンター チップの新たなバージョンを展開するという Meta の計画をほのめかしました。内部的には「Artemis」と呼ばれるこのチップは、Meta の Nvidia の AI チップへの依存を軽減し、同時に全体のエネルギー消費を削減することを目的としています。

しかし、この発売によっても、Meta は Nvidia チップの購入を止められませんでした。同社はまた、Nvidia やその他の AI チップの購入にも多額の投資を行っています。 CEOのマーク・ザッカーバーグは今年、MetaがNvidiaから約350,000万個の主力H100チップを調達する意向であると発表した。ザッカーバーグ氏はさらに、他のサプライヤーのチップと合わせて、メタ社は年末までに600,000万個相当のH100チップを蓄積することを目指していると述べた。


スポット画像

最新のインテリジェンス

スポット画像