ゼファーネットのロゴ

Meta はより適切なレコメンデーションを実現するために GenAI チップに焦点を当てます

日付:

メタは持っています 導入 AI タスク専用の独自チップの最新版。内部開発された Meta Training and Inference Accelerator (MTIA) v2 チップは、以前の v1 チップの XNUMX 倍の処理能力とメモリ帯域幅を提供します。

これらのチップは、AI アプリケーションをサポートするために Meta のデータセンター全体に実装され、特にプラットフォーム上でのユーザー エンゲージメントを高める深層学習レコメンデーション システムを強化します。

Metaは、これらの新しいチップが、FacebookやInstagramなどのプラットフォームでの広告に不可欠な、単純および複雑なランキングおよび推奨アルゴリズムの管理に熟達していることを強調した。 Meta 氏は、ハードウェア コンポーネントとソフトウェア コンポーネントの両方を管理することにより、効率の点で標準的な商用 GPU を上回るパフォーマンスを実現できると主張しています。

Meta の関連投稿には、「このプログラムにより、より集中的な AI ワークロードのために、より多くのコンピューティング能力を専念して投資できるようになるため、すでにこのプログラムの良い結果が見られています」と書かれています。

Meta は昨年 3 月に、同社独自の計算需要に合わせて特別に調整された最初の独自チップを発売しました。 Meta が AI 開発への注力を強化するにつれて、特殊なハードウェアの必要性が高まっています。同社は最近、Llama XNUMX などの高度な AI モデルのトレーニングに利用している AI インフラストラクチャを展示しました。現在は Llama XNUMX のみに依存しています。 Nvidia コンポーネント。

Meta はより適切なレコメンデーションを実現するために GenAI チップに焦点を当てます
MTIA チップは追加開発に向けて準備されており、Meta は生成 AI タスクをサポートするためにハードウェアを強化することを計画しています (画像著作権)

Omdia の調査によると、Meta は昨年 Nvidia の主要顧客の 100 つであり、AI モデルのトレーニング用に相当量の HXNUMX GPU を取得しました。 Meta は、自社のカスタム シリコン イニシアチブは、既存のシステム内で既に使用されている Nvidia ハードウェアを置き換えるのではなく、補完するように設計されていることを明らかにしました。

「カスタム シリコンに対する当社の目標を達成するには、コンピューティング シリコンだけでなく、メモリ帯域幅、ネットワーキング、容量、その他の次世代ハードウェア システムにも投資する必要があります」とメタ氏は述べました。

MTIA チップは追加開発が予定されており、メタは生成 AI タスクをサポートするためにハードウェアを強化することを計画しています。 MTIA v2 の導入は、Meta のカスタム チップ テクノロジーへの最近の進出を表しており、大手テクノロジー企業が独自のハードウェア ソリューションを開発している広範な業界トレンドを反映しています。

「現在、GenAI ワークロードのサポートなど、MTIA の範囲を拡大することを目的としたいくつかのプログラムが進行中です。そして私たちはまだこの旅の始まりにすぎません。」

-メタ

たとえば、つい先週、Google Cloud は Google Cloud Next 2024 イベント中に初の Arm ベースの CPU を発表しました。同様に、Microsoft は Maia および Cobalt の自社 CPU を開発し、Amazon は AWS で設計された Graviton および Trainium チップ ファミリを利用して生成 AI アプリケーションを促進しています。


注目の画像クレジット: ローラ・オッケル/アンスプラッシュ

スポット画像

最新のインテリジェンス

スポット画像