ゼファーネットのロゴ

GPUとは何ですか? AI ブームを支えるチップとその価値が数兆ドルに達する理由

日付:

世界が AI テクノロジーの最新の波の利用を急いでいる中、ハイテク ハードウェアの 1 つであるグラフィックス プロセッシング ユニット (GPU) が驚くほど人気の商品になっています。

最高級の GPU は、 数万ドル、大手メーカーである Nvidia はその市場評価を確認しています。 2兆ドルを超えて急上昇 同社製品の需要が急増しているためです。

GPU は単なるハイエンド AI 製品ではありません。携帯電話、ラップトップ、ゲーム機にも、それほど強力ではない GPU が搭載されています。

ここまででおそらく、「GPU とはそもそも何なのか?」と疑問に思っているでしょう。そして何が彼らをそんなに特別にするのでしょうか?

GPU とは

GPU は元々、ビデオ ゲームやゲームに関係するような複雑な 3D シーンやオブジェクトを迅速に生成して表示することを主な目的として設計されました。 コンピューター支援設計 ソフトウェア。最新の GPU は次のようなタスクも処理します。 解凍 ビデオストリーム。

ほとんどのコンピューターの「頭脳」は、中央処理装置 (CPU) と呼ばれるチップです。 CPU はグラフィック シーンの生成やビデオの解凍に使用できますが、通常、これらのタスクでは GPU に比べてはるかに遅く、効率も低くなります。 CPU は、ワープロや Web ページの閲覧など、一般的な計算タスクに適しています。

GPU は CPU とどう違うのですか?

一般的な最新の CPU は 8 ~ 16 インチで構成されています。」、それぞれが複雑なタスクを順番に処理できます。

一方、GPU には数千の比較的小さなコアがあり、すべてが同時に (「並列」で) 動作して全体の高速処理を実現するように設計されています。このため、次々に実行するのではなく、同時に実行できる多数の単純な操作を必要とするタスクに適しています。

従来の GPU には主に 2 つの種類があります。

まず、スタンドアロン チップがあり、これは大型デスクトップ コンピューターのアドオン カードに付属していることがよくあります。 5 つ目は、同じチップ パッケージ内で CPU と組み合わされた GPU で、ラップトップや PlayStation XNUMX などのゲーム コンソールによく見られます。どちらの場合も、CPU が GPU の動作を制御します。

GPU が AI に非常に役立つのはなぜですか?

GPU はグラフィック シーンの生成以外にも再利用できることがわかりました。

機械学習技術の多くを支えているのは、 人工知能、 といった ディープニューラルネットワーク、さまざまな形式の行列乗算に大きく依存します。

これは、非常に大きな数値のセットを乗算して合計する数学演算です。これらの操作は並列処理に適しているため、GPU によって非常に高速に実行できます。

GPU の次は何でしょうか?

コア数とその動作速度の増加により、GPU の数処理能力は着実に向上しています。これらの改善は主に、次のような企業によるチップ製造の改善によって促進されます。 TSMC 台湾で。

コンピューター チップの基本コンポーネントである個々のトランジスタのサイズは減少しており、同じ物理的スペースにより多くのトランジスタを配置できるようになりました。

ただし、これがすべてではありません。従来の GPU は AI 関連の計算タスクには役立ちますが、最適ではありません。

GPU が元々、グラフィックスに特化した処理を提供することでコンピューターを高速化するように設計されたのと同じように、機械学習タスクを高速化するように設計されたアクセラレーターもあります。これらのアクセラレータは、データセンター GPU と呼ばれることがよくあります。

AMD や Nvidia などの企業が製造した最も人気のあるアクセラレータの一部は、従来の GPU としてスタートしました。時間の経過とともに、その設計は、たとえばより効率的な「脳浮遊」数値形式。

Google などの他のアクセラレータ テンソル処理ユニット そしてテントレントの Tensix コアは、ディープ ニューラル ネットワークを高速化するためにゼロから設計されました。

データセンターの GPU やその他の AI アクセラレータには通常、従来の GPU アドオン カードよりも大幅に多くのメモリが搭載されており、これは大規模な AI モデルのトレーニングに不可欠です。 AI モデルが大規模であればあるほど、その能力と精度は高くなります。

トレーニングをさらに高速化し、ChatGPT などのさらに大規模な AI モデルを処理するために、多くのデータセンター GPU をプールしてスーパーコンピューターを形成できます。これには、利用可能な数値処理能力を適切に活用するために、より複雑なソフトウェアが必要です。別のアプローチは、 単一の非常に大きなアクセラレータを作成する、「」などウェハスケールプロセッサ』プロデュースはセレブラス。

特殊チップは未来ですか?

CPUも立ち止まっていません。 AMD と Intel の最近の CPU には、ディープ ニューラル ネットワークに必要な数値処理を高速化する低レベル命令が組み込まれています。この追加機能は主に「推論」タスク、つまり他の場所ですでに開発された AI モデルの使用に役立ちます。

そもそも AI モデルをトレーニングするには、依然として大規模な GPU のようなアクセラレータが必要です。

特定の機械学習アルゴリズム用に、これまで以上に特化したアクセラレータを作成することが可能になります。たとえば最近、Groq という会社が「言語処理装置」(LPU)は、ChatGPT のラインに沿って大規模な言語モデルを実行するために特別に設計されています。

ただし、これらの特殊なプロセッサを作成するには、かなりのエンジニアリング リソースが必要です。歴史によれば、特定の機械学習アルゴリズムの使用量と人気はピークに達し、その後衰退する傾向があるため、高価な専用ハードウェアはすぐに時代遅れになる可能性があります。

ただし、平均的な消費者にとっては、それが問題になる可能性は低いです。あなたが使用している製品の GPU やその他のチップは、静かに高速化を続ける可能性があります。

この記事はから再公開されます 会話 クリエイティブコモンズライセンスの下で 読む 原著.

画像のクレジット: Nvidia

スポット画像

最新のインテリジェンス

スポット画像