韓国のDRAMファバーSKhynixは、3GB /秒で動作するHBM819DRAMチップを開発しました。
HBM3 (High Bandwidth Memory 3)はHBMアーキテクチャの第XNUMX世代であり、DRAMチップを積み重ね、シリコン貫通電極(TSV)と呼ばれる垂直電流伝達穴によって、マイクロバンプを接続することにより、ベースインターポーザボードに接続します。これは、従来のCPUソケットインターフェイスを介するよりも高速にDRAMチップ内のデータにアクセスするプロセッサに固定されています。
SKハイニックスのDRAM開発担当シニアバイスプレジデントであるソンヨンチャは次のように述べています。「SKハイニックスは、世界初のHBM DRAMの発売以来、HBM3E市場をリードした後、業界初のHBM2の開発に成功しました。 プレミアムメモリ市場でのリーダーシップを強化するための努力を続けていきます。」
前の世代はHBM、HBM2、HBM2E(拡張または拡張)でした。 JEDEC それぞれの標準を開発します。 HBM3規格はまだ開発されていません。つまり、SKハイニックスはその設計を将来のより高速なHBM3規格に後付けする必要があるかもしれません。
819GB /秒の速度は、同社のHBM78eチップ速度である2GB /秒を460%上回っています。 SKハイニックスは8GBHBM16eチップで16x2Gbitレイヤーを使用しました。 HBM3チップには24GBと16GBの容量があり、24GBチップには12層スタックがあります。
同社によれば、エンジニアはDRAMチップの高さを約30マイクロメートル(μm、10-6m)、TSVテクノロジーを使用して最大4枚まで垂直に積み重ねる前の、A12用紙の厚さのXNUMX分のXNUMXに相当します。
HBM3チップの製造は、いわば、インターポーザーとプロセッサーのコンボに固定する必要があり、メモリコンポーネントに対応するように構築する必要があるため、実行する必要があることの半分にすぎません。
HBM-インターポーザー-プロセッサーコンボの構築は、通常、業界標準のサーバーCPUとそのソケットスキームによって提供されるものよりも多くのメモリ容量と速度を必要とするアプリケーションに対してのみ行われます。 つまり、スーパーコンピューター、HPCシステム、GPUサーバー、AIシステムなど、費用と専門性(制限された市場)に見合う価値があります。
SKハイニックスのHBM3を使用するシステムは、2022年半ば以降と2023年に登場すると予想されるかもしれません。®
PlatoAi。 Web3の再考。 増幅されたデータインテリジェンス。
アクセスするには、ここをクリックしてください。
出典:https://go.theregister.com/feed/www.theregister.com/2021/10/20/sk_hynix_hbm3/