HPC e Analytics

Memory driven computing: avanza The Machine Project di HPE

Con la presentazione del prototipo operativo si concretizza un punto fondamentale di The Machine Project, l’ambizioso progetto di Hewlett Packard Enterprise per ridisegnare l’architettura dei computer, ponendo al centro del sistema non più il processore ma la memoria. Creando una macchina che può eseguire in tempo reale i più complessi algoritmi ai più vasti insiemi di dati concepibili

Pubblicato il 18 Mag 2017

11110-memory-computing-prototipo

HPC & AILo scorso 16 maggio, HPE (Hewlett Packard Enterprise) ha fatto un annuncio che potrebbe, senza esagerazioni, cambiare tra pochi anni, forse già entro il decennio, la storia dell’informatica. Si tratta del primo computer memory-driven, completo e operante su larga scala, la cui presentazione è il punto d’arrivo del più grande programma di ricerca e sviluppo che la società abbia intrapreso nella sua lunga storia: The Machine Project.

L’architettura del memory driven computer di HPE

Si tratta di un programma il cui obiettivo era (ed è, trattandosi di un progetto open source il cui sviluppo è in proseguimento) ridisegnare l’architettura che Von Neumann concepì negli anni ’40 e sulla quale si basano tuttora quasi tutti i computer, facendo della memoria e non più della Cpu l’elemento nodale del sistema. Avviato tre anni fa, il progetto ha segnato una prima tappa importante con la dimostrazione pratica del funzionamento dell’architettura e il testing delle sue prestazioni. Poi, in occasione dell’HPE Discover di Londra del novembre scorso, è stata annunciata la realizzazione di una scheda hardware completa e funzionante, sia pure in scala ridotta. Oggi, in anticipo rispetto alle previsioni date dalla stessa HPE all’evento di Londra, è stato presentato un prototipo le cui caratteristiche sono tali (vedi box) da dimostrare largamente l’enorme potenziale della nuova architettura se applicata in un contesto produttivo.

Storage e Ram, una cosa sola

Kirk Bresniker, Chief Architect of Hewlett Packard Labs System Research

Ma come è fatto e come funziona un computer memory-driven? Abbiamo avuto occasione di parlarne con Kirk Bresniker, Chief Architect degli HP Labs per la ricerca sui sistemi.

ZeroUno: Ci sembra di capire che l’innovazione dell’architettura presentata da HPE stia nella unificazione di storage e Ram…

Bresniker: Sì, in un computer single-memory-driven (cioè dove ogni cella di memoria ha un indirizzo univoco – ndr) non c’è più differenza tra lo storage, che contiene i dati, e la Ram, dove sono processati. C’è una memoria unica condivisa da tutte le unità di calcolo, che vi accedono per tutte le operazioni.

ZeroUno: L’architettura prevede un rapporto fisso tra capacità di memoria e numero di nodi di calcolo? Com’è gestito l’accesso alla memoria dal parte del sistema operativo?

Bresniker: Oggi il prototipo ha 160 Tb di memoria e 40 nodi, e se i Tb fossero 320 i nodi sarebbero 80. Ma è un problema tecnologico: l’architettura di per sé non pone limiti e il rapporto può variare con più o meno memoria per nodo a seconda che il sistema sia pensato per applicazioni data intensive o processing intensive. Ciò significa anche che i nodi non sono clusterizzati ma possono accedere alla memoria in modo indipendente.

ZeroUno: Significa anche, però, che le applicazioni andranno completamente riscritte non solo per la gestione della memoria ma anche in termini di parallelizzazione dei processi. Fornirete dei tool o meglio dei compilatori per facilitare questo compito?

Bresniker: Ci stiamo lavorando e abbiamo già dei tool adatti allo scopo. In questo compito, fondamentale, contiamo molto anche sui nostri partner e sulla comunità open source.

Un motore per le analytics

Tecnici dei laboratori HPE al lavoro sul prototipo del memory driven computer. Notare i quattro blocchi da 10 nodi di calcolo ciascuno che accedono a una memoria condivisa da 160 terabyte

Quando gli incrementi prestazionali di un sistema si misurano in ordini di grandezza è difficile dire dove questo verrà prima e/o meglio applicato, poichè tutti gli ambiti dell’It vi sono coinvolti. Ovviamente l’high performance computing come simulazioni geo, meteo e biologiche, rendering delle superfici, analisi fluidodinamica…. Poi i data center, il cui disegno sarà rivoluzionato dalla scomparsa dello storage diretto (resterà solo quello per l’archiviazione) e che in più, come ha anche sottolineato Bresniker nel corso dell’intervista, consumeranno molto meno energia grazie all’efficienza intrinseca dell’architettura e del networking interno di tipo ottico. Cose che influiranno anche su tutta l’offerta cloud, ma specialmente PaaS e IaaS, sia nelle prestazioni sia nei costi. Ma dove è chiaro che poter elaborare enormi quantità di dati avrà impatto maggiore sarà nelle applicazioni analitiche. Che, ancora una volta, vuol dire praticamente dappertutto. Nel caso specifico saranno però le analisi predittive e prescrittive in real-time a trarne più vantaggio. In quest’ambito l’unica risposta odierna è la tecnologia in-memory analytics, a volte su hardware dedicato, a prevalere, ma come ha osservato Bresniker non solo il computer memory-driven può scalare a livelli di exabyte e oltre con facilità, ma lavorando su memorie persistenti migliora la sicurezza dei dati eliminando la fase di transito dallo storage alla Ram.


160 TB di Ram. Ed è solo l’inizio

Le caratteristiche tecniche del prototipo di memory-driven computer presentato da HPE sono le seguenti:

  • Memoria condivisa e non volatile di 160 Terabyte, accessibile da 40 nodi fisici di calcolo collegati da un protocollo d’interconnessione ad alte prestazioni.
  • Connettività in tecnologia ottica tramite i nuovi moduli HPE X1 Photonics da 1,2 Tb/sec.
  • Sistema operativo Linux-based che gira su Cavium Thunder X2, SoC (System on a Chip) di nuova generazione in architettura ARMv8A ottimizzata sui workload e prodotto da ARM.
  • Un set di strumenti di programmazione concepiti per trarre vantaggio dal grande volume di memoria persistente disponibile.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2