Passer au contenu

CES 2018 : Samsung lance une version encore plus rapide de sa mémoire HBM2

Comme chaque année au CES, Samsung a fait étalage de ses nouveaux équipements pour la maison. Mais le géant coréen a également dévoilé une nouvelle itération de sa mémoire HBM2.

Aquabolt. Derrière ce nom peu évocateur se cache la nouvelle version de mémoire HBM2 dévoilée par Samsung au salon de Las Vegas. Une mémoire qui, sur le papier, offre des performances époustouflantes et qui pourrait tout à fait débarquer sur les cartes graphiques de nos PC assez rapidement.

Pour rappel, la HBM2, c’est le type de mémoire vive utilisée sur les cartes graphiques AMD Radeon RX Vega grand public et professionnelles mais aussi sur les solutions Nvidia à base de GV100, comme la toute récente Titan V, taillées pour le deep learning. C’est, enfin, la mémoire vidéo embarquée dans les toutes dernières puces Intel annoncées au CES également, les Kaby Lake-G.

Jusqu’à 307 Go/s de bande passante par stack

Successeur (à moyen terme ?) des modules Firebolt, les Aquabolt seraient fabriqués sur les mêmes principes et procédés de gravure (20 nm) puisque Samsung n’a, de ce côté, indiqué aucun changement.

Toutefois, le géant est parvenu à ajuster et affiner la structure interne puisqu’il annonce une augmentation de performances de l’ordre de “50% par broche“. La vitesse des Aquabolt est donc donnée pour 2,4 Gb/s (soit 300 Mo/s) à 1,2 volt par broche contre 1,6 Gb/s à 2 Gb/s auparavant, selon le voltage utilisé (1,2 ou 1,35 V).

Si l’on associe cette vitesse à celle de l’interface mémoire, généralement de 1024 bits sur la HBM2, on obtient alors une bande passante de 307 Go/s par stack de 8 Go (8 couches de 1 Go empilées). Dans le cas d’une puce servie par 4 stacks de 8 Go (32 Go au total donc), la vitesse globale de la bande passante dépasserait alors 1 To/s !

En comparaison, la GDDR5 peut atteindre une vitesse maximum de 8 Gbps mais le facteur limitant dans son cas est l’interface mémoire de chaque module. Elle n’est que de 32 bits, ce qui nous amène à 32 Go/s de bande passante par puce mémoire. Soit presque 10 fois moins que celle proposée par un module de HBM2 !

À lire : La mémoire GDDR6 pourrait équiper les Radeon et GeForce dès 2018

Samsung précise enfin que pour arriver à ce niveau de performances, il a dû retravailler et améliorer l’interconnexion verticale entre toutes les couches (Through Silicon Via’s), sans oublier d’ajuster tout le système de conduction de chaleur à l’intérieur des modules.

Pour le moment, Samsung ne s’avance pas encore quant à la disponibilité massive de cette nouvelle génération de HBM2, mais le géant a déjà entamé la production. Logiquement, cette nouvelle itération devrait provoquer une chute des prix de la HBM2 première génération signée Samsung.

Source :
Samsung

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.