NEWS

Cassandra, la nuova alleata della ricerca italiana sulla crisi climatica



Indirizzo copiato

Il supercomputer in arrivo nel centro specializzato di Lecce, combinando HPC e AI promette di accelerare le simulazioni e supportare nuove applicazioni AI

Pubblicato il 18 giu 2024

Marta Abba'

Giornalista



Shutterstock_2193040963 (1)

Nel 2005 i ministeri italiani dell’Ambiente, delle Finanze, dell’Agricoltura e delle Foreste hanno pensato di munire l’Italia di un centro dedicato allo studio dei cambiamenti climatici. Una previsione degna di Cassandra, personaggio che ricorrente in questa vicenda visto dà il nome anche al nuovo supercomputer in arrivo in questa struttura. È previsto nei prossimi mesi, ma se ne conoscono già le caratteristiche e se ne attendono le performance, per accelerare le attività.

L’accelerazione che rende l’AI realtà

Il CMCC, che sta per Centro Euro-Mediterraneo sui Cambiamenti Climatici, è situato a Lecce e per vocazione deve sviluppare modelli di previsione della Terra e degli oceani, prevedendo i cambiamenti del clima e supportando chi deve disegnare strategie di mitigazione e adattamento agli effetti del riscaldamento globale.

Alle soglie del suo 19esimo compleanno è pronto per ospitare Cassandra, lasciando prenda il posto di Juno. Il nuovo hardware si basa sull’architettura di sistema Neptune raffreddata a liquido fornita da Lenovo, quello “vecchio”, anche se risale solo al 2022, era invece basato sulla piattaforma scalabile Xeon di terza generazione di Intel.

Con questo nuovo “motore”, il centro potrà eseguire una serie di simulazioni del cambiamento climatico basate sull’intelligenza artificiale, prima non immaginabili. O forse immaginabili ma non realizzabili.

Non solo FLOPS: le performance attese

Mentre a chi sta a cuore il clima, sogna un nuovo panorama di ricerca che possa migliorare quello della crisi, chi si interessa a nodi e GPU, disquisisce sulle caratteristiche della novità in arrivo, cercando di stimare il reale impatto che potrà avere dal punto di vista del computing.

La discussione gira attorno ai 170 nodi del sistema esistente, in grado di gestire 1,13 petaFLOPS di prestazioni di picco a doppia precisione e ai 180 nodi di Cassandra, la maggior parte alimentata da CPU, quindi con performance diverse da quelle che un cluster accelerato da GPU offrirebbe.

Si prevedono infatti 1,2 petaFLOPS di prestazioni FP64 a regine, nel corso dell’anno, un numero che, da solo, non significa per forza alte prestazioni perché carichi di lavoro diversi hanno colli di bottiglia diversi. Proprio quando si ha a che fare con HPC e AI, la larghezza di banda della memoria rappresenta un importante freno alle prestazioni.

Nel caso di Cassandra, sistema basato molto sulle CPU, quello che molti sospettano e si augurano, è che si punti a usarlo con carichi di lavoro HPC, proprio come i modelli climatici, in modo che le GPU non giochino un ruolo preponderante e che si possa trarre un reale vantaggio dal cambio di hardware.

Nel mondo ci sono esempi di calcolo legati alla meteorologia che possono poi far riflettere e spingerci a ipotesi diverse. Alcuni centri per le previsioni meteorologiche a medio raggio effettuano calcoli a 32 bit nella modellazione con enormi vantaggi, i ricercatori dell’Università di Bristol sono riusciti a ottenere un aumento della velocità di 3,6 volte scendendo a precisioni inferiori.

Al GTC (General Temperature Control) c’è poi un digital twin che accelera le simulazioni ad alta risoluzione del clima fino a due chilometri di risoluzione. Non sono a disposizione molti altri dettagli, ma il sospetto è che anche il centro di Lecce voglia fare la stessa cosa, anche ambendo a raggiungere performance migliori, grazie a Cassandra e alla sua partizione di GPU inserita per aumentare o accelerare le simulazioni HPC.

Articoli correlati

Articolo 1 di 5