Logo Zéphyrnet

DRAM, ça s'empile : SK hynix déploie la technologie HBM819 à 3 Go/s

Date :

Le fabricant coréen de DRAM SK hynix a développé une puce DRAM HBM3 fonctionnant à 819 Go/s.

HBM3 (High Bandwidth Memory 3) est une troisième génération de l'architecture HBM qui empile les puces DRAM les unes au-dessus des autres, les relie par des trous de transport de courant verticaux appelés Through Silicon Vias (TSV) à une carte intercalaire de base, via la connexion de micro-bosses, lors de la auquel est fixé un processeur qui accède aux données de la puce DRAM plus rapidement qu'il ne le ferait via l'interface de socket CPU traditionnelle.

Seon-yong Cha, vice-président senior de SK hynix pour le développement DRAM, a déclaré : « Depuis le lancement de la première DRAM HBM au monde, SK hynix a réussi à développer le premier HBM3 de l'industrie après avoir dominé le marché HBM2E. Nous poursuivrons nos efforts pour consolider notre leadership sur le marché des mémoires premium. »

Schématique

Schéma de principe de la mémoire à bande passante élevée

Les générations précédentes étaient HBM, HBM2 et HBM2E (Enhanced ou Extended), avec JEDEC élaborer des normes pour chacun. Il n'a pas encore développé de norme HBM3, ce qui signifie que SK hynix devra peut-être adapter sa conception à une future norme HBM3 plus rapide.

Vitesses de mémoire HBM. La colonne la plus à droite est une future norme HBM3 possible et la colonne vide est notre vitesse d'E/S SK hynix HMB3 estimée.

La colonne la plus à droite est une future norme HBM3 possible et la colonne vide est notre vitesse d'E/S SK hynix HMB3 estimée

La vitesse de 819 Go/s représente une augmentation de 78 % par rapport à la vitesse de la puce HBM2e de la société de 460 Go/s. SK hynix a utilisé 8 couches de 16 Gbit dans sa puce HBM16e de 2 Go. La puce HBM3 est disponible dans des capacités de 24 Go et 16 Go, la puce de 24 Go ayant une pile de 12 couches.

La société affirme que ses ingénieurs ont mis la hauteur de leur puce DRAM à environ 30 micromètres (μm, 10-6m), soit l'équivalent d'un tiers de l'épaisseur d'un papier A4, avant d'en empiler verticalement jusqu'à 12 grâce à la technologie TSV.

Dessous (côté interposeur) de la puce Sk hynix HBM3.

Dessous (côté interposeur) de la puce SK hynix HBM3

Produire une puce HBM3 n'est pour ainsi dire que la moitié de ce qu'il faut faire, puisqu'il faut la fixer sur un combo interposeur-processeur et qu'il faut la construire pour accueillir le composant mémoire.

La construction d'un combo HBM-interposeur-processeur ne sera généralement effectuée que pour les applications qui nécessitent plus de capacité de mémoire et de vitesse que celles fournies par les processeurs de serveur standard et leur schéma de socket. Cela signifie des superordinateurs, des systèmes HPC, des serveurs GPU, des systèmes d'IA et autres pour lesquels les dépenses et la spécialisation (marché restreint) en valent la peine.

On pourrait s'attendre à ce que des systèmes utilisant le HBM3 de SK hynix apparaissent après la mi-2022 et en 2023. ®

PlatonAi. Web3 réinventé. L'intelligence des données amplifiée.
Cliquez ici pour y accéder.

Source : https://go.theregister.com/feed/www.theregister.com/2021/10/20/sk_hynix_hbm3/

spot_img

Dernières informations

spot_img