LONDRA – “I computer di oggi non sono in grado di reggere il passo dell’innovazione necessario a supportare un mondo globale interconnesso”. Sono le parole scelte da Meg Whitman, Presidente e Ceo di Hewlett Packard Enterprise, all’Hpe Discover di quest’anno, tenutosi ieri a Londra, per annunciare quella che la stessa multinazionale ritiene essere la pietra miliare del The Machine Research Project, il programma di ricerca partito nel 2014 che ha come obiettivo primario ridefinire i modelli architetturali su cui si basa il calcolo computazionale.
Dopo due anni di sperimentazioni, sul palco londinese arriva un prototipo di architettura di memory-driven computing che nella visione Hpe rappresenterà il nuovo paradigma computazionale (il cui funzionamento è stato dimostrato nei laboratori di ricerca pochi mesi fa).
A spiegare di cosa si tratta è Kirk Bresniker, Chief Architect of Hewlett Packard Labs Systems Research, che in un’anteprima riservata alla stampa spiega come “il cuore del nuovo design architetturale sia rappresentato dalla memoria e non dal processore, configurazione che permette di superare le attuali barriere in termini di capacità e scalabilità dei sistemi di computing”.
Le componenti architetturali
Come spiegato da Bresniker, tutto ruota attorno alla memoria e i building block della nuova architettura sono:
- nodi di computing e storage che accedono a pool di risorse condivise di Fabric-Attached Memory, ossia accesso alle memorie mediante una struttura connessa e condivisa che permette ai processori e allo storage di condividere le risorse di memoria;
- memory fabric switch, commutatori che permettono ai processori di accedere alle memorie da qualsiasi nodo computazionale del sistema;
- connessioni basate su comunicazione ottica via fotoni che permettono un accesso rapido alle risorse di memoria condivise attraverso la luce anziché l’elettricità;
- sistema operativo Linux-based che gira su un System on a Chip (Soc) customizzato (circuito integrato che in un solo chip contiene un intero sistema: oltre al processore centrale integra anche una scheda madre ed altri controller come quello per la memoria Ram)
La roadmap tecnologica
Il funzionamento di questo nuovo design architetturale è stato dimostrato solo sei mesi fa ma le analisi condotte dai laboratori di Hpe rivelano risultati in termini di rapidità di processamento dei dati senza paragoni: il sistema risulta essere infatti “15 volte più rapido nell’in-memory analytics, da 100 a 300 volte più veloce nel supportare algoritmi sofisticati come quelli della ‘ricerca per immagini’ o delle ‘graph inference’ (cioè le deduzioni grafiche), e addirittura 8mila volte più celere se impiegato a sostegno dei modelli di analisi finanziaria”, descrive Bresniker. “La maturità tecnologica si raggiungerà in una decina di anni ma la roadmap è tracciata e già dai prossimi mesi e anni si potranno toccare con mano le prime soluzioni innovative che ‘prendono vita’ proprio a seguito di questo progetto di ricerca”.
Queste le aree di commercializzazione sulle quali Hpe si sta concentrando:
- memoria non volatile (Nvm): partendo dai risultati del The Machine Research Project l’azienda pianifica di rendere disponibili nel biennio 2018-2019 soluzioni di memoria persistente che combinano le performance delle memorie Dram -Dynamic Random Access Memory con la capacità e la stabilità dei tradizionali sistemi storage;
- fabric (inclusa la comunicazione via fotoni): Hpe pianifica di integrare i sistemi di comunicazione che utilizzano la luce (i fotoni) anziché l’elettricità per le connessioni di rete e la trasmissione dei dati all’interno dei propri sistemi (come l’infrastruttura componibile Synergy), accelerando così l’high performance computing mediante nuovi protocolli di interconnessione (tra i quali anche i fabric-attached memory);
- sicurezza: la nuova architettura è stata progettata seguendo il ‘security by design’ ossia integrando fin dai singoli componenti gli aspetti di sicurezza dei sistemi, integrità dei dati, resilienza; l’esperienza maturata su questo progetto spinge Hpe a pensare per il 2018 a soluzioni di ‘secure containers’ che integrino sicurezza e agilità dei sistemi per lo sviluppo agile di applicazioni di nuova generazione;
- costruzione dell’ecosistema: partendo dalla dimostrazione dei risultati della nuova architettura di memory-driven computing attraverso il software, Hpe intende estendere l’ecosistema che si può modellare attorno a tale architettura, soprattutto mediante le community open source e le partnership con le software house (in particolare quelle che si dedicano al tema analytics attraverso le quali potrebbe nascere una nuova generazione di soluzioni applicative). Dopo la dimostrazione pratica del funzionamento della nuova architettura Hpe ha iniziato a rilasciare pacchetti di codice all’interno della community open source Github per permettere agli sviluppatori di ‘familiarizzare’ con la programmazione software specifica per la nuova architettura di memory-driven computing (Hpe ha come obiettivo inserire questo codice nei sistemi esistenti – per esempio Synergy – entro il prossimo anno e sviluppare applicazioni e soluzioni analitiche sui nuovi sistemi già nel 2018-2019).