Supercomputer: cosa sono, come funzionano, prezzo e classifica

I supercomputer sono i protagonisti della ricerca scientifica, dall’astrofisica alla medicina, dalla farmacologia alla fisica, dalla meteorologia al campo ambientale, dall’intelligenza artificiale alla cybersecurity. Il campione italiano, pronto per la Top500, si chiama Leonardo

Pubblicato il 20 Gen 2022

data center AI

La trasformazione digitale accelera e richiede risorse computazionali crescenti. I supercomputer aiutano a sostenere la ricerca scientifica, lo sviluppo farmaceutico e tecnologico, la finanza, le previsioni meteo e il settore ingegneristico e la bioingegneria.

L’Unione europea sta sviluppando “una delle reti di supercalcolo più potenti al mondo“, per accompagnare la transizione digitale, a cui Bruxelles destina il 20% delle risorse del Next Generation Eu.

Una curiosità: da inizio pandemia, il supercomputer di Enea Cresco6 (del Centro Ricerche Enea di Portici presso Napoli) ha destinato 450 mila ore di calcolo e 3.600 simulazioni per lottare contro il Covid-19. Il 70% delle risorse opera invece nel campo ambientale per combattere i cambiamenti climatici, l’inquinamento atmosferico e studiare materiali da fonti di energia rinnovabile.

Supercomputer

Cosa sono i supercomputer

I supercomputer sono sistemi di elaborazioni con risorse dislocate in più computer, operanti in parallelo, molto potenti, in grado di raggiungere capacità di elaborazione estremamente alte e capaci di svolgere operazioni di una serie di questioni molto complesse a elevatissime prestazioni o che richiedono l’analisi di big data in tempi rapidissimi.

Anche i sistemi più veloci ad altissime prestazioni HPC (High Performance Computer), più sostenibili sotto il profilo del consumo energetico, rientrano in questa categoria.

Si distinguono dai computer non solo per l’ordine di grandezza della potenza di calcolo e l’alta complessità dei calcoli, ma anche per la loro architettura. Infatti sfruttano al massimo e con efficacia le prestazioni di ogni computer, finora misurate in Petaflop, ma sempre più comunemente in Exaflop. La scala exa significa svolgere più di un trilione di operazioni al secondo.

A cosa servono

I supercomputer, grazie alla capacità di svolgere elaborazioni a elevate velocità, hanno impiego in ambito:

  • scientifico (medicina, chimica, biologia, fisica, astrofisica, farmacologia, scienza dei materiali, meteorologia);
    finanziario;
  • simulazioni ingegneristiche (aerospaziale, automotive, crittoanalisi);
  • militare;
  • informatica: cybersecurity, blockchain e intelligenza artificiale (AI).

Settore medico-farmacologico

I supercomputer conquistano terremo nel settore medico e in quello dei trattamenti sanitari e farmacologici, in quanto agevolano la sintesi di nuovi farmaci, aiutano a mettere a punto terapie ad hoc, personalizzate e mirate. Al centro sono le esigenze dei pazienti di neoplasie, disturbi cardiovascolari, malattie neurodegenerative come l’Alzheimer, patologie genetiche rare.

Nell’attuale emergenza pandemica, rivestono un ruolo di crescente importanza nelle ricerche per la cura del Covid-19 e per la prevenzione della diffusione del virus. Nei test di nuove molecole farmacologiche, ma anche per dare una mano a capire genesi ed evoluzione di eventi epidemici di natura virale.

Settore meteo

I supercomputer si stanno diffondendo nel campo della meteorologia, dove servono a elaborare previsioni anticipando da simulazioni degli eventi atmosferici più temibili: uragani e inondazioni. Permettono di studiare intensità e portata degli eventi più catastrofici.

Le previsioni precise aiutano la prevenzione, mettendo al riparo aree geografiche, popolazioni e territori a rischio idro-geologico, salvando vite umane, oltre a ridurre i danni a privati e a infrastrutture pubbliche.

Cambiamenti climatici

Il supercalcolo è cruciale per affrontare i cambiamenti climatici, per monitorare lo stato delle risorse terrestri, per abbattere l’impatto delle immissioni di gas climalteranti, per promuovere il ricorso a tecnologie sostenibili in tutti gli ambiti, dall’agricoltura all’industria.

Cybersecurity

Tra le applicazioni dei supercomputer spicca la cybersecurity dove è necessario incrementare il livello contro gli attacchi informatici e prevenire il cyber crime, mettendo in sicurezza le infrastrutture critiche degli Stati.

Industria sostenibile

Altri settori dove trovano impiego a pieno titolo i supercomputer, sono: l’automotive sempre più green, il settore aerospaziale e delle energie rinnovabili. Permettono di aumentare la produttività e al contempo ridurre l’impatto ambientale dei processi industriali, rendendoli sostenibili.

Altri esempi riguardano la costruzione di impianti fotovoltaici, turbine eoliche, smart building eccetera.

Come funzionano i supercomputer

I supercomputer non sono solo computer molto veloci o molto grandi, ma funzionano in maniera diversa da un computer. Infatti, in genere, i supercomputer usano l’elaborazione parallela invece di quella seriale.

Dunque, i supercomputer non fanno una cosa alla volta, ma svolgono più attività insieme. I supercomputer sono molto più veloci perché, aggiungendo più processori, suddividono i problemi in parti e lavorano su queste componenti in parallelo contemporaneamente.

Inoltre, sono equipaggiati con sistemi operativi open source: Linux primeggia con il 98% di market share.
Come linguaggi di programmazione, i supercomputer usano C++, C Fortran e a volte sfruttano un linguaggio di livello superiore per coordinare chiamate a funzioni della libreria.

Le caratteristiche dei supercomputer sono:

  • il processore vettoriale;
  • calcolo parallelo;
  • cluster;
  • grid e progetti collaborativi distribuiti.

Processore vettoriale dei supercomputer

Il calcolo vettoriale è una branca dell’algebra lineare e si occupa dell’analisi reale di vettori a due (o più) dimensioni, attraverso formule e tecniche risolutive, usate in ingegneria e fisica.

In informatica, il calcolo vettoriale è un modello computazionale che permette di eseguire una medesima operazione su una vasta serie di dati in contemporanea: un esempio classico sono le schede video per il rendering dei videogame e le applicazioni in 3D.

Le architetture computazionali basate su calcolo vettoriale sono alla base dei processori vettoriali o array processor dei supercomputer. Si tratta di CPU ideate per eseguire operazioni matematiche su più dati elementari in simultanea.

Uno dei primi processori vettoriali è stato Ibm Cell, capace di elaborare flussi video e audio in real time: sviluppato da Ibm, Sony e Toshiba. Oggi tutti i processori sono dotati di istruzioni vettoriali ovvero SIMD.

Calcolo parallelo

I supercomputer vantano la capacità di sfruttare il calcolo dei carichi di lavoro, suddividendolo in parallelo su più processori vettoriali. Ciò permette ai sistemi HPC di operare secondo una logica modulare.

L’elaborazione parallela è in grado di analizzare le questioni usando la memoria di sistema quanto meno meno possibile, per sfruttare invece la memoria di cache dei processori (o dei chipset integrati) che gode del vantaggio di essere più veloce.

Inoltre, chi sviluppa le applicazioni punta a realizzare task che tendono a alleggerire e suddividere i carichi di lavoro su più processori, per evitare il problema del sovraccarico di sistema che rallenterebbe il funzionamento.

Infine, il calcolo parallelo consente di organizzare i supercomputer in datacenter, dunque in strutture di computazionali enormi, completamente scalabili e nell’ordine di milioni di core, con unità di calcolo indipendenti e interconnesse all’HPC.

Cluster

Il termine cluster significa “grappolo”. Un cluster di computer è un insieme di computer connessi insieme, con soluzioni a bassa latenza, in modo da formare un’entità singola per svolgere una serie di attività. I computer cluster sono meno costosi, anche in fase di installazione e mantenimento, rispetto a un supercomputer con performance confrontabili. Per la ricerca online, Google usa i cluster nei data center.

Poiché non ha l’architettura e le tecnologie di un supercomputer, il grid computing rappresenta un’alternativa che taglia enormemente i costi.

Grid e progetti collaborativi distribuiti

Il grid computing è una rete di computer che permette di svolgere task di grandi dimensioni, al fine di:

  • elaborare big data;
  • modellare dati meteo;
  • analizzare set di grandi volumi di dati nell’eCommerce;
  • suddividere un compito ingente in poche sub-task di piccole dimensioni distribuite sui computer che costituiscono la rete.

Il grid computing condivide con il cluster computing la capacità di risolvere problemi connettendo i computer in rete, impiegando le risorse nel modo più performante, incrementando l’efficienza e la velocità di trasmissione. Ma le somiglianze finiscono qui, perché differisce dal cluster computing per architettura, caratteristiche e funzionamento.

L’elaborazione del grid computing agevola l’automazione, la creazione di modelli predittivi, la ricerca astrofisica, le simulazioni ingegneristiche, progettazioni, commercio, meteo eccetera.

Per capire come opera una griglia, prendiamo l’esempio del meteo:

  • un team di ricerca analizza i modelli meteorologici nell’area del Nord Mediterraneo;
  • un’altra squadra analizza la regione del Sud Mediterraneo;
  • il grid computing combina entrambi i risultati per fornire un quadro completo dei modelli meteo del mar Mediterraneo.

Qual è il prezzo dei supercomputer

Oggi il prezzo di un supercomputer supera il miliardo di dollari. A tanto ammontava nel 2020 il prezzo di Fugaku, il primo supercomputer ad aver superato la soglia di 1 Exaflop.

Fugaku è il supercomputer di Fujitsu erede del modello K. Realizzato congiuntamente con Riken, chiamato con il nome dei Monte Fuji, il supercomputer Fugaku è stato ideato per raggiungere performance applicative elevatissime allo scopo di risolvere una vasta gamma di problemi sociali e scientifici.

Solo dieci anni fa, per il design e l’assemblaggio, un supercomputer costava fra i 100 e 250 milioni di dollari; poi fra i 6 e i 7 milioni di dollari di costi energetici (prima che esplodesse il caro energia) a cui andavano aggiunti i costi di manutenzione.

Supercomputer: cosa sono, come funzionano, prezzo e classifica

Il supercomputer Leonardo

Cofinanziato dal governo italiano e dall’Unione europea, Leonardo è uno degli otto supercomputer che compongono EuroHPC (“European High-Performance Computing). EuroHPC è l’impresa comune europea per il calcolo ad alte prestazioni.

Nato da un progetto di 15 anni fa, Leonardo del CINECA, il Consorzio Interuniversitario per il Calcolo Automatico dell’Italia Nord Orientale, punta a rendere l’Italia il quarto Paese al mondo per capacità computazionale.

Leonardo, in grado di eseguire oltre 150 milioni di miliardi di calcoli al secondo, è ospite del Tecnopolo di Bologna.

Leonardo si basa su un sistema pre-exascale (precursore della tecnologia “exascale”) come il finlandese Lumi, che vanta una capacità di calcolo e prestazioni che equivalgono quelle di 1,5 milioni di notebook combinati insieme.

Con l’ambizione di classificarsi tra le prime cinque posizioni, Leonardo vanta la collaborazione e il supporto strategico della francese Atos e della statunitense Nvidia.

Ecco i numeri di Leonardo:

  • può contare sui 10 Exaxlop;
  • è in grado di eseguire 250 milioni di miliardi di operazioni al secondo (prestazioni HPL aggregate pari a 250 Pflop);
  • vanta 14.000 processori accelerati GPU di Nvidia;
  • dispone di tecnologia BullSequana XH2000 di Atos per la connessione dei 1536 nodi CPU con processori Intel Xeon Sapphire;
  • capacità di archiviazione di oltre 100 Petabyte;
  • RAM di oltre 3 Petabyte;
  • consuma 9000 kW di energia elettrica;
  • occupa una superficie di circa 1500 metri quadrati.

La classifica dei supercomputer più potenti al mondo

Battezzata Top500, la classifica dei supercomputer più potenti al mondo è la lista che premia i primi della classe. A novembre al vertice si è confermato il giapponese Fugaku, il supercomputer basato su tecnologia ARM, caratterizzato da 442 PetaFlop di velocità.

In cima alla classifica dal giugno 2020, il supercomputer nipponico vanta processori ARM A64FX di Fujitsu (7,63 milioni di core). Risulta tre volte più potente dell’ex numero uno, Summit, che si è arrestato a 148,8 Petaflop al secondo (CPU IBM Power9 e Nvidia Tesla V100).

In precedenza, il supercomputer più potente del 2020 era il supercomputer con più processori al mondo, il Sunway TaihuLight, dotato di 40.960 moduli processori. Ognuno di essi è equipaggiato con 260 core, per un totale di 10.649.600 core complessivi.

La classica dei top vendor vede AMD triplicare il numero di sistemi, mentre Intel vanta un market share dell’81,4%, sebbene in declino dall’86,4% del semestre scorso. Sotto il profilo degli acceleratori (o co-processori), 84 dei sistemi in classifica impiegano soluzioni NVIDIA Volta, 43 Ampere e otto Gpu Pascal.

I supercomputer cinesi avrebbero già superato la soglia di un exaflop di potenza di calcolo, ma nessuno di questi sistemi ha svolto i test per essere incluso nella Top500.

Si tratta di una classifica fino ad oggi dominata da cinque Paesi: Cina (37.6%), USA (24.4%), Giappone (6.8%), Germania (4.6%), e Francia (3.2%).

Con Leonardo, l’Italia punta ad entrare nelle prime cinque posizioni della classifica dei supercomputer più potenti al mondo. Per ora al nono posto si è piazzato l’HPC5 di Eni, un sistema Dell EMC PowerEdge C4140 con CPU Intel Xeon Gold 6252 e acceleratori Nvidia Tesla V100: complessivamente, totalizza una potenza di 35,5 Petaflop al secondo.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3