Quali possono essere i possibili sviluppi dello storage professionale? L’evoluzione della tecnologia può essere vista secondo tre diverse prospettive:
- Soluzioni di virtualizzazione dello storage e sistemi di infrastruttura iperconvergente (HCI – hyperconverged infrastructure)
- Condivisione delle capacità di storage
- Controller SSD ad alte prestazioni per data center hyperscale
Questi 3 approcci sono stati illustrati durante l’evento Technology Live! di Londra attraverso le soluzioni di StorMagic, Hammerspace e FADU. Vediamo nel dettaglio di cosa si tratta.
Soluzioni di virtualizzazione dello storage e sistemi di infrastruttura iperconvergente
Nel mondo retail, in ambito manifatturiero, nell’assistenza sanitaria, nelle piccole e medie imprese, nel cosiddetto settore ROBO (remote office/branch office), nei data center di ridotte dimensioni, crescono le realtà aziendali e industriali, e i casi d’uso, in cui gran parte dei dati vengono creati e archiviati nell’infrastruttura edge, e dove la priorità è anche garantire elevata disponibilità (HA – high availability) delle applicazioni e dei dati, soprattutto per evitare interruzioni della continuità aziendale. Sono questi i tipici contesti informatici verso cui StorMagic rivolge la propria offerta, costituita da due soluzioni, SvSAN (StorMagic virtual SAN) e SvHCI, quest’ultima specificamente progettata per l’implementazione in ambienti edge di piccole e medie imprese (SMB): lo ha spiegato Bruce Kornfeld, chief product officer dell’azienda britannica, che ha sede a Bristol, è stata fondata nel 2006 e vanta migliaia di clienti nel mondo, alcuni dei quali anche in Italia.
Dopo l’invenzione di SvSAN, una soluzione di storage iperconvergente che, ricorda Kornfeld, storicamente è arrivata sul mercato prima dell’omologa soluzione di Vmware (vSAN), StorMagic ha sviluppato e commercializzato SvHCI: quest’ultimo è uno stack software completo di infrastruttura iperconvergente, che combina le funzioni di storage virtualizzato SvSAN con hypervisor, networking virtualizzato e componenti di gestione. A dicembre 2024, StorMagic ha annunciato la versione 2.0 di SvHCI, aggiornata con nuove funzionalità, che descriviamo nel seguito dell’articolo.
StorMagic: “Bastano due server e …un testimone”
Sul piano dell’alta disponibilità (HA), chiarisce Kornfeld, la particolarità che accomuna SvSAN e SvHCI, e costituisce l’elemento differenziante sul mercato rispetto all’offerta tecnologica concorrente, è l’architettura software, che, per eseguire il mirroring sincrono dei dati, può utilizzare una configurazione cluster con soli due nodi, quindi solo due server fisici per sito. “Per avere un cluster adeguato e altamente disponibile sono di norma necessari tre nodi: ci vuole un’anima principale, altrimenti, se uno dei due server cade, l’altro non sa che deve prendere il controllo. Nel caso di StorMagic, il terzo nodo è costituito da un piccolo e leggero witness, che può funzionare nel cloud, su un computer embedded a scheda singola come Raspberry Pi, o dovunque” precisa Kornfeld, che aggiunge: “Questa è la nostra salsa segreta”.
Negli ambienti edge e SMB, SvHCI, dichiara StorMagic, consente di ottimizzare il TCO (total cost of ownership) riducendo costi Capex e Opex, con risparmi fino al 62% sul software HCI, rispetto a soluzioni come VMware, e fino a oltre il 33% sul versante hardware.
In genere, afferma l’azienda di Bristol, la maggior parte di quelle che in questo campo vengono commercializzate come soluzioni edge sono in realtà versioni per data center, e risultano sovradimensionate, troppo complicate e costose per l’implementazione e la gestione nell’infrastruttura edge.
SvHCI si posiziona invece come una soluzione leggera, basata sull’hypervisor open-source KVM, e ulteriormente avvalorata dal fatto che lo sviluppo tecnologico è guidato dal CTO di StorMagic, Julian Chesterfield, uno dei creatori dell’hypervisor open-source Xen. Come accennato, nella versione 2.0, SvHCI introduce nuove funzionalità: tra queste, gli snapshot, fino a un massimo di 16, creabili per ciascuna VM (virtual machine), migliorano la velocità e capacità di ripristino di dati e configurazioni in caso di cancellazioni accidentali, perdite, corruzioni di dati, o attacchi cibernetici. La funzionalità Edge Control, un’interfaccia di gestione cloud-based, fornisce una singola console per amministrare l’intero stack di cluster SvHCI, mentre un processo basato su wizard velocizza l’importazione e la migrazione delle VM dagli ambienti VMware verso l’infrastruttura SvHCI.
Tier 0: così Hammerspace sblocca lo storage esistente nei server GPU
Al Technology Live! la seconda, interessante prospettiva di evoluzione dell’architettura di storage nell’era dell’intelligenza artificiale (AI) è illustrata da Molly Presley, senior vice president Global Marketing di Hammerspace, e si esplica, essenzialmente, con la descrizione della nuova tecnologia Tier 0, introdotta nell’ultima versione, la v5.1, del software Global Data Platform (GDP), annunciata a novembre 2024. Tier 0 risponde a una sfida cruciale.
Oggi, spiega Presley, ricordando ciò che la società sta ascoltando dai propri clienti, tra cui figurano grandi hyperscaler o istituzioni come il Los Alamos National Laboratory, tutti stanno implementando nodi di elaborazione su larga scala, basati ad esempio su server GPU Nvidia DGX, per accelerare workload di AI, DL (deep learning) o HPC (high performance computing).
Un problema chiave che tali organizzazioni stanno incontrando è però che questi server, costosi anche sotto il profilo dei consumi energetici, non vengono sfruttati in maniera efficiente nei loro ambienti di storage, poiché la capacità di storage flash locale che integrano, resta inutilizzata.
In sostanza tale storage, che per singolo server GPU può arrivare all’ordine di grandezza dei petabyte, risulta disponibile solo per le GPU del server stesso, e non per quelle condivise nel cluster.
La tecnologia Tier 0 di Hammerspace consente di sbloccare questi petabyte di storage inutilizzato, liberando la capacità di storage flash NVMe (non-volatile memory express) incorporata nei server GPU e rendendola disponibile sotto forma di un nuovo livello di storage condiviso a bassa latenza e accesso ultra rapido, che mantiene gli stessi livelli di prestazioni, ridondanza e protezione del tradizionale storage esterno.
L’integrazione resa possibile da Tier 0 rende la capacità NVMe locale dei server GPU parte del file system parallelo unificato, creato dal software GDP per eliminare i silos di storage e consentire un fluido governo dell’intero spazio di archiviazione dati, distribuito on-premise, nei data center e nel cloud.
FADU ridefinisce l’architettura controller SSD per data center
La terza prospettiva di evoluzione tecnologica dello storage, nel contesto di crescente sviluppo dei workload AI e introduzione di interfacce ad alta velocità come PCIe (PCI Express) 5.0 e 6.0, si apre sull’architettura innovativa dei controller di fascia enterprise ad alte prestazioni per unità di memoria SSD (solid-state drive), sviluppati dalla fabless semiconductor company coreana FADU, e basati su interfaccia e bus PCIe.
Tra i clienti dei propri controller Fadu annovera società come SK Hynix, Western Digital, OEM (original equipment manufacturer) e ODM (original design manufacturer) produttori di server enterprise, e hyperscaler. Ciò che differenzia i controller di Fadu rispetto a quelli di altri concorrenti sul mercato, spiega Jonmichael Hands, senior director Product Planning della società, è “un’architettura davvero unica, molto scalabile e ad elevate prestazioni, caratterizzata da una notevole efficienza energetica”.
I convenzionali controller SSD, per implementare la scalabilità delle prestazioni, aggiungono più core ARM, o CPU ARM con performance più elevate, che però finiscono per incrementare costo e dimensioni del die e consumi di energia: diversamente, mostra Hands, i controller Fadu possiedono un’architettura costituita da 4 core RISC-V a 64 bit, abbinati a un control plane programmabile alimentato da PPU (packet processing unit), che sono in sostanza processori RISC specializzati, ottimizzati per l’elaborazione dei pacchetti. Grazie a questa architettura, diventa possibile elaborare i comandi NVMe suddividendoli in una pipeline multistadio, in cui ciascuno stadio può essere ottimizzato in maniera indipendente da un core PPU dedicato, così da risolvere i colli di bottiglia con maggior efficienza. Al contempo è anche possibile migliorare l’efficienza energetica in rapporto all’evoluzione delle generazioni di bus PCIe.
FADU ha in produzione di massa tre generazioni di controller SSD, e sta attualmente sviluppando dispositivi PCIe Gen 5 su vari formati (E1.S, E3.S, U.2), con una roadmap che per il 2026 prevede l’introduzione nella gamma di prodotti di un controller PCIe 6.0 (Sierra) con performance (4 lane) fino a 28 GB/s.