Gestire la memoria sta diventando un asset prioritario della governance. Per questo motivo o produttori di memorie stanno diventando sempre più creativi nel trovare soluzioni per aumentare le prestazioni dei propri prodotti e gli acquirenti dovranno presto valutare nuove soluzioni. Le tecnologie di nuova generazione su cui ragionare oggi sono due: l’HBM e l’HCM. Quali sono le differenze?
L’High Bandwidth Memory (HBM) è un’interfaccia ad alte prestazioni pensata per supportare il data throughput dei dispositivi di memoria e superare i limiti associati alla Flash Memory.
La tecnologia Hybrid Memory Cube (HMC), invece, spinge le prestazioni della memoria oltre i design convenzionali delle memorie a banda larga, come gli standard DDR3 e DDR4.
Come sottolineano gli esperti, si tratta di due approcci che differiscono sia a livello tecnologico che a livello di progettazione rispetto al modo in cui migliorano le prestazioni della memoria del server.
High Bandwidth Memory nei server futuri
L’idea che sta dietro le HBM è semplice: avvicinare i dispositivi di memoria gli uni agli altri e portarli più vicini a CPU o GPU. Il computer design generalmente suddivide i chip di memoria e di calcolo mettendo moduli di memoria in gruppi di slot situati sulla scheda madre. Questo tipo di memoria del server pone limiti pratici sulle frequenza di clock, trattenendo la quantità di dati che può spostarsi in ogni ciclo di clock.
La metodologia HBM sovrappone i chip di memoria uno sull’altro in una matrice (e li connette tra di loro attraverso dei micro-fori posti sulle estremità del banco), quindi assembla insieme il processore e la memoria dello stack per formare un componente che va su una scheda madre del server. Gli stack HBM, invece, non sono fisicamente integrati con CPU e GPU, ma utilizzano un interposer (chip capace di gestire bus di comunicazione molto ampi) che permette di gestire i flussi di comunicazione tra GPU e memoria grafica. Tuttavia, secondo gli esperti, la memoria HBM è indistinguibile dagli approcci integrati di memoria on-chip (on-processor).
Un modulo HBM può superare di gran lunga la larghezza di banda di una memoria convenzionale, operando a una frequenza inferiore e con meno potenza. Ad esempio, un tipico pacchetto grafico GDDR5 utilizza un bus a 32 bit in esecuzione fino a 1.750 MHz e 1,5 volt per una larghezza di banda fino a 28 GB al secondo. Un pacchetto HBM, invece, utilizza un bus a 1.024 bit in esecuzione solo fino a 500 MHz e 1,3 V per ottenere larghezze di banda di oltre 100 GB (secondo quanto riporta AMD). Non solo: la memoria HBM offre la versatilità di lavorare con CPU o server GPU-enabled emergenti.
Hybrid Memory Cube: prestazioni di memoria migliorate del 50%
I tipi di memoria del server convenzionali, come la DIMM, utilizzano un’interfaccia parallela sulla scheda madre del server per collegare singoli chip. Hybrid Memory Cube, invece, funziona impilando verticalmente i chip di memoria per creare array 3D con accesso alla memoria seriale. Questi array aggiungono un livello logico per gestire la memoria e il produttore del server può installare ogni insieme vicino al processore. Questo design con memoria a breve distanza è più comune e offre prestazioni più elevate rispetto un’architettura alternativa con memoria a maggiore distanza che mira alla power efficiency. Gli Hybrid Memory Cube possono essere concatenati in link fino a otto pacchetti e, rispetto dispositivi di memoria DDR3, offrono una larghezza di banda maggiore di 15 volte, un risparmio energetico del 70% e una diminuzione dell’ingombro fisico del 90%. per esempio, i prodotti HMC di Micron da 2 e 4 GB vantano una larghezza di banda, rispettivamente, di 120 e 160 GB.
Questi prodotti sono già disponibili e dispositivi come il coprocessore Intel Xeon Phi utilizzano questa tecnologia e registrano prestazioni di memoria superiori di circa il 50% rispetto a quelle fornite dai dispositivi di memoria GDDR5.