Logo Zephyrnet

DRAM, si accumula: SK hynix lancia la tecnologia HBM819 da 3 GB/s

Data:

Il produttore coreano di DRAM SK hynix ha sviluppato un chip DRAM HBM3 che funziona a 819 GB/sec.

HBM3 (High Bandwidth Memory 3) è una terza generazione dell'architettura HBM che impila chip DRAM uno sopra l'altro, li collega tramite fori verticali che trasportano corrente chiamati Through Silicon Vias (TSV) ad una scheda di interposizione di base, tramite il collegamento di micro-bump, su a cui è fissato un processore che accede ai dati nel chip DRAM più velocemente di quanto farebbe attraverso l'interfaccia socket della CPU tradizionale.

Seon-yong Cha, vicepresidente senior di SK hynix per lo sviluppo DRAM, ha dichiarato: “Dal lancio della prima DRAM HBM al mondo, SK hynix è riuscita a sviluppare la prima HBM3 del settore dopo aver guidato il mercato HBM2E. Continueremo i nostri sforzi per consolidare la nostra leadership nel mercato delle memorie premium”.

Schema

Diagramma schematico della memoria ad alta larghezza di banda

Le generazioni precedenti erano HBM, HBM2 e HBM2E (Enhanced o Extended), con JEDEC sviluppare standard per ciascuno. Non ha ancora sviluppato uno standard HBM3, il che significa che SK hynix potrebbe dover adattare il suo design a uno standard HBM3 futuro e più veloce.

Velocità di memoria HBM. La colonna più a destra è un possibile standard HBM3 futuro e la colonna vuota è la nostra presunta velocità I/O SK hynix HMB3.

La colonna più a destra è un possibile standard HBM3 futuro e la colonna vuota è la nostra velocità di I/O SK hynix HMB3 stimata

La velocità di 819 GB/sec è un aumento del 78% rispetto alla velocità del chip HBM2e dell'azienda di 460 GB/sec. SK hynix ha utilizzato 8 livelli da 16 Gbit nel suo chip HBM16e da ​​2 GB. Il chip HBM3 è disponibile con capacità da 24 GB e 16 GB con il chip da 24 GB con uno stack a 12 strati.

La società afferma che i suoi ingegneri hanno ridotto l'altezza del chip DRAM a circa 30 micrometri (μm, 10 ).-6m), equivalente a un terzo dello spessore di un foglio A4, prima di impilarne verticalmente fino a 12 utilizzando la tecnologia TSV.

Lato inferiore (lato interposer) del chip Sk hynix HBM3.

Lato inferiore (lato interposer) del chip SK hynix HBM3

La produzione di un chip HBM3 è solo metà, per così dire, di ciò che deve essere fatto, poiché deve essere fissato a una combinazione interposer-processore e deve essere costruita per ospitare il componente di memoria.

La creazione di una combinazione HBM-interposer-processore verrà generalmente eseguita solo per applicazioni che richiedono maggiore capacità di memoria e velocità rispetto a quelle fornite dalle CPU server standard del settore e dal loro schema di socket. Ciò significa supercomputer, sistemi HPC, server GPU, sistemi di intelligenza artificiale e simili dove la spesa e la specializzazione (mercato ristretto) valgono la pena.

Potremmo aspettarci che i sistemi che utilizzano l'HBM3 di SK hynix appaiano dopo la metà del 2022 e nel 2023. ®

Platone Ai. Web3 reinventato. Intelligenza dei dati amplificata.
Clicca qui per accedere.

Fonte: https://go.theregister.com/feed/www.theregister.com/2021/10/20/sk_hynix_hbm3/

spot_img

L'ultima intelligenza

spot_img

Parla con noi

Ciao! Come posso aiutarla?