Mentre ci si chiede quale metodo avrà la meglio nello sfruttamento dei qubit, l’informatica quantistica continua a guadagnare terreno e spazio. Le ricerche per raggiungere il quantum advantage avanzano su diversi fronti, e anche gli investimenti, ma non solo. Molte energie e tanti talenti sono dedicati anche al trovare delle applicazioni pratiche immediate e virtuose. Ambiti e contesti in cui magari il quantum computing si deve accontentare di non essere il protagonista, ricoprendo il ruolo di “aiutante”. È esattamente così che accade, per esempio, quando lavora con i sistemi HPC
Un quantum computer che accelera scoperte scientifiche
L’occasione per tornare su questa opzione viene offerta dal Giappone. Il suo centro di ricerca scientifica governativo Riken ha infatti annunciato un sistema per sfruttare il calcolo quantistico come acceleratore per le sue applicazioni tradizionali di calcolo ad alte prestazioni (HPC).
Non farà tutto da solo, si appoggerà ai sistemi H1 di Quantinuum, sviluppati in collaborazione con Honeywell, svelando una certa fiducia nei confronti del trapped-ion quantum computing. Si tratta di una delle tante strade che si stanno tentando per sviluppate computer quantistici sempre più performanti. Nello specifico, le trappole di ioni sfruttano campi elettromagnetici per far sospendere particelle atomiche cariche nello spazio libero. I qubit vengono quindi memorizzati negli stati elettronici stabili di ogni ione e l’informazione quantistica riesce a essere trasferita in una trappola condivisa grazie ad un “movimento collettivo quantizzato” degli ioni che interagiscono attraverso la forza di Coulomb.
I sistemi utilizzati in questo centro di ricerca giapponese raggiungono un massimo di 20 qubit a ioni intrappolati, abilitati ad accedere a cinque zone in cui vengono eseguite operazioni quantistiche mediante laser. Un numero apparentemente esiguo ma che non deve spingerci ad affrettate conclusioni. Più qubit non significa per forza più potenza di calcolo o prestazioni più elevate. Tutto dipende da come il sistema sarà orchestrato nella sua interezza e unicità. Va inoltre tenuto conto che quello che Quantinuum ha destinato alla collaborazione con Riken non è nato per battere alcun record, ma per “accelerare i lavori” affidati ai supercomputer tradizionali. Inutili i confronti con chi spalleggia per le grandi cifre di qubit: in questo caso il computer quantistico in azione va inteso come una sorta di GPU quando usata come acceleratore, come sempre più spesso accade.
Coordinazione ed energia: le sue sfide del calcolo ibrido
Grazie al contributo dei qubit, i supercomputer possono effettuare calcoli che da soli non sarebbero in grado di gestire. Pur dovendosi accontentare di un ruolo secondario, l’informatica quantistica resta comunque un elemento di svolta decisivo.
La sua efficacia come “acceleratore” per supercomputer è stata dimostrata anche in uno studio di IDC già nel 2021. Nello stesso documento si afferma anche che il 76% dei centri HPC di tutto il mondo intendeva utilizzarlo entro il 2023 e che il 71% tuttora mira ad adottare paradigmi di calcolo quantistico on-premises entro il 2026.
Numeri che mostrano una certa sensibilità alle attuali applicazioni del quantum computing legate ai supercomputer. Molto aiuta anche la comunanza di intenti che si riscontra nelle due discipline. Esse condividono infatti molte applicazioni come quelle relative alla chimica e alla ricerca di nuovi materiali, come anche la risoluzione di equazioni differenziali per l’idrodinamica o le previsioni finanziarie.
Sembrerebbe un tandem perfetto, certamente è una combinazione virtuosa ma non esente da sfide. La prima riguarda la coordinazione dell’intero calcolo ibrido tra i diversi nodi di calcolo classici e quantistici. In vista di sistemi ibridi con più acceleratori quantistici, ciascuno con specifiche diverse (numero di qubit, tempi di coerenza e fedeltà dei gate), è infatti essenziale capire come organizzare le risorse minimizzando time-to-solution ed energy-to-solution.
Trattandosi di macchine molto potenti, non si può inoltre trascurare la quantità di energia che consumano, anche quando combinati. Una criticità fondamentale da risolvere, oggi, se si vuole che questo tipo di struttura di calcolo abbia un domani.