Il ruolo importante dei supercomputer nella lotta al Covid-19

Risulta cruciale la ricerca di un vaccino: il supercalcolatore del Cineca ha elaborato finora circa la metà dei 500 miliardi di molecole note, individuandone quaranta potenzialmente utili. Il suo omologo negli Usa ne ha identificate settantasette

Pubblicato il 27 Mar 2020

marconi-cineca-lenovo

In questi giorni l’Italia e il mondo intero si trovano a combattere una unica sfida contro il virus Covid-19, sfida sanitaria innanzitutto ma anche finanziaria, economica e profondamente sociale.

Tutto il mondo è con il fiato sospeso in attesa di un vaccino, o un rimedio, che annulli la pandemia e ne prevenga una ulteriore diffusione. L’uso delle tecnologie, oggi più che mai, può veramente venire in soccorso in due direzioni principali: il controllo della popolazione e la ricerca del vaccino.

In entrambi i casi sono richieste alcune caratteristiche basilari: la velocità di azione, la capacità di gestire e monitorare in tempo reale una miriade di dati, la diffusione della conoscenza acquisita sul campo e la possibilità di operare in parallelo tra vari team.

Le tecnologie nel controllo della popolazione e nella ricerca di un vaccino

Iniziamo dal primo obiettivo, il controllo attivo della popolazione al fine di prevenire il diffondersi dei contagi, assicurare il confino entro spazi definiti soprattutto delle persone in quarantena, elaborare scenari di diffusione futura dei contagi a livello di microzona geografica e di macro aree o nazioni.

L’ideale sarebbe poter elaborare tutte queste informazioni in forma singola per ogni area di competenza di ogni Asl o ospedale (pubblico o privato) e in forma aggregata per provincia, regione e nazione. Di tutto ciò sono proprio gli scenari di sviluppo dei contagi con previsioni a corto termine (12-24 ore), medio termine (1-5 gg) e lungo termine (5-30 gg) che, come le previsioni meteorologiche, riuscirebbero a orientare e concentrare sforzi e risorse ma anche applicare efficaci azioni di prevenzione. Il tutto con una variabile che in sé nasconde le più grosse aleatorietà possibili: l’essere umano e il suo comportamento.

Il secondo obiettivo, la ricerca di un vaccino e il suo pronto inserimento sul mercato, richiedono invece l’elaborazione di dati e tecniche che sono concentrati nella conoscenza e nei centri di ricerca di case farmaceutiche, università, medici e scienziati. Il vantaggio in questo caso sarebbe quello di avere il tutto in una comunità relativamente piccola, in molti casi interconnessa, ma che deve seguire rigidi protocolli e test prima di poter dire che un vaccino è efficace e applicabile sull’uomo. In questo caso, più che la mole di dati, quello che è necessario è poter elaborare in parallelo innumerevoli simulazioni e scenari. Il tutto coordinato auspicabilmente da una regia unica a livello, perlomeno, di continente.

In entrambi i casi occorrono supercalcolatori con potenze di calcolo di decine di milioni di miliardi di operazioni al secondo, forse anche qualche centinaio di milioni di miliardi di operazioni al secondo.

Numeri di operazioni che fanno girare la testa ma che non sono né tutte disponibili, né sufficienti a trovare un rimedio nel giro di pochi mesi.

Quali supercomputer stanno elaborando miliardi di operazioni al secondo e come

Il processo normalmente seguito per la ricerca di un vaccino è quello di fare uno screening virtuale dell’interazione tra molecole note (i medicinali in commercio e non) e i target biologici caratteristici del virus. Il consorzio Exscalate4CoV in collaborazione con il Polimi, l’Università Federico II, l’ospedale Spallanzani, la Dompè farmaceutici e altri quattordici istituti di ricerca di sette diversi paesi europei, utilizzando il supercomputer Cineca a Bologna (denominato “Marconi”) elabora in questo periodo 3 milioni di molecole al secondo, da una base di 500 miliardi di molecole, al fine di individuare quali di esse reagiscono meglio alle caratteristiche del Covid-19 e indirizzare in questo modo la ricerca e i test in laboratorio e su pazienti. Sebbene i numeri siano impressionanti e lo sforzo sia enorme, questa capacità di elaborazione è lenta rispetto a quello che occorre per la sintesi di un vaccino efficace. Infatti lo screening virtuale è solo la prima fase della ricerca di un vaccino, ma le fasi successive – la sintesi della molecola giusta e i test su pazienti reali – richiedono molto più tempo.

I supercomputer in giro per il mondo con la capacità di calcolo come quella espressa dal Cineca non sono molti, e non tutti sono a disposizione della ricerca medica. Inoltre non tutti sono interconnessi tra loro soprattutto in Europa. Negli Usa, ad esempio, hanno messo insieme la capacità di calcolo di sedici supercomputer in un consorzio che vede le principali università e internet company unire le loro forze per dare un totale di 330 petaflop, ovvero 330 milioni di miliardi di operazioni al secondo, circa sette volte la capacità espressa dal Cineca. Anche la Nasa ha messo a disposizione uno dei propri supercomputer normalmente utilizzato per le previsioni meteorologiche.

Sino a oggi al Cineca è stata elaborata circa la metà dei 500 miliardi di molecole e sono state individuate quaranta di esse potenzialmente utili alla ricerca del vaccino. Negli Usa sono settantasette le possibili molecole identificate a oggi.

Si stima che per metà maggio il Cineca avrà terminato l’elaborazione della base di molecole e auspicabilmente avremo un altro set su cui focalizzare la ricerca e i test biologici.

Il miracolo fatto sino a oggi è notevole se si pensa che il tempo normale di screening di una molecola è di circa 4 mesi e che con i supercomputer si è ridotto a 50 millisecondi.

Così facendo il tempo totale per la sintesi del vaccino si potrebbe accorciare dai 18-24 mesi tipici a circa 6-9 mesi, un tempo pur sempre lungo rispetto all’avanzata del Covid-19, ma decisamente utile a fermare il contagio a livello mondiale, soprattutto se abbinato alle tecniche e misure di prevenzione (incluso l’isolamento sociale).

Utilizzare i big data e l’intelligenza artificiale contro le pandemie

È proprio qui, quando si passa dal virtuale al fisico, che l’utilizzo dei supercomputer dovrebbe fare un passo avanti per far sì che solo ed esclusivamente le ultime fasi finali dei test biologici siano eseguite sulla popolazione e durino veramente poco. Qui la scienza è ancora lontana e segue i tradizionali metodi clinici e di laboratorio anche perché l’utilizzo dei supercomputer per lo screening virtuale è una novità degli ultimi anni utilizzata solo in un caso precedente (il virus Zika nel 2016), quindi non si sono ancora sviluppate metodologie, modelli e teorie matematiche per simulare in toto in virtuale anche la parte che oggi si fa in fisico.

Questo ci porta a una altra considerazione: da queste pandemie degli ultimi anni, e dalle malattie comuni o rare, l’uomo deve ancora raccogliere dati, molti dati, per costruire analisi e tecniche attraverso l’utilizzo di big data e artificial intelligence. Oggi sappiamo che possiamo elaborare anche velocemente i dati, ma il mondo della medicina e della ricerca di base non si è ancora spinto del tutto in questi ambiti.

Mai come in questo caso la soluzione rapida della pandemia è fattore primario per la ripresa sociale, finanziaria ed economica dei paesi colpiti. Questa stessa pandemia ci ha fatto già scoprire alcuni fattori di debolezza delle economie moderne: la necessità di una autosufficienza produttiva di un paese, o di un sistema comunitario (vedi Europa o Usa) anche per beni di minore valore ma di grande importanza strategica (vedi mascherine e respiratori), la necessità di avere un forte stato sociale che mantenga gli investimenti in sanità e infrastrutture al top, ma abbiamo capito anche che oggi le vere infrastrutture che reggono il paese sono l’informatica e le telecomunicazioni.

Infatti se le interazioni sociali di persona e le produzioni in linea di montaggio si sono dovute fermare, tante altre attività comprese quelle critiche o dello shopping quotidiano o l’istruzione, sono continuate sul canale virtuale o elettronico. Si è dimostrato in questi mesi che l’infrastruttura, almeno in Italia e nei paesi avanzati, è pronta a gestire picchi di traffico intenso nelle case degli italiani.

Oggi si è apprezzato veramente che gli investimenti in infrastrutture ad alta tecnologia nel settore IT e telecomunicazioni rappresentano la spina dorsale della moderna civiltà, che vanno aumentati, che l’intera filiera va valorizzata di più. Si è anche appreso che l’era dell’utilizzo dei supercalcolatori per applicazioni di emergenza o di utilità globale in ambito medico è appena iniziata e questo fa ben sperare per il futuro.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5