Attualità

Tecnologia al limite, schema a moduli, ecosistema a crescere: la strategia quantistica di IBM

La nuova roadmap segna il traguardo error-free nel 2029 e le tappe intermedie sono tutte sfide tecnologiche per mettere le basi e raggiungerlo. Mentre continua ad ampliare il proprio ecosistema di early adopter con cui sperimentare casi d’uso quantistici e ibridi, IBM spinge al limite le tecnologie da diversi punti di vista. Ha scelto un approccio modulare e misura le performance in termini di velocità, scalabilità e qualità

Pubblicato il 01 Feb 2024

Immagine di Titima Ongkantong su Shutterstock

Nuovi algoritmi e nuove risorse, nuove competenze e spesso anche nuove infrastrutture. Sicuramente un nuovo modo di ragionare. Quello del quantum computing è un altro mondo, intangibile ma pervasivo e sempre più reale. Propone un modo diverso di leggere e gestire fenomeni, chiedendoci di abbandonare per un attimo la lente “classica” con cui li abbiamo sempre osservati, per provare un approccio nuovo. Non sostitutivo, ma integrabile e da imparare a integrare per ottenere vantaggi non ancora “tangibili” ma dimostrabili attraverso stime e proiezioni.

Il quantum computing è questo e, per cogliere le opportunità che offre, è necessario esplorarlo e prepararsi ad accogliere la sua rivoluzione come ecosistema, non come singoli. Così perlomeno sta facendo IBM, uno dei protagonisti della corsa al quantum advantage. Da mesi ha cominciato a offrire la possibilità di sperimentare la performance di un computer quantistico liberamente a chi ha voglia di portarsi avanti e iniziare a pensare, e a contare, con i qubit. Mentre collabora con imprese, università e centri di ricerca, “tira dritto” verso i suoi obiettivi tecnologici, partendo dall’hardware, dove maggiormente pulsa il cuore del cambiamento in corso

Velocità, scalabilità e qualità: come valutare un processore a qubit

Tutti gli step compiuti da IBM dal punto di vista hardware sono da leggere con un triplice punto di vista. La velocità, parametro che intuitivamente si collega al calcolo quantistico, non è infatti l’unico da tener presente per confrontare le prestazioni dei processori quantistici. Anche la scalabilità e la qualità dei qubit sono metriche essenziali per l’efficienza di questo paradigma.

Quando si parla di scalabilità, si intende il numero di qubit a cui si può arrivare e costruire in modo affidabile. IBM ha superato la soglia dei 1000. La qualità si misura invece attraverso il tempo in cui i qubit possono essere utilizzati per eseguire operazioni e calcoli mentre, per velocità, si intende quella in cui si possono eseguire problemi. “Oggi siamo riusciti a passare da centinaia di microsecondi ai millisecondi – racconta Ismael Faro, Vicepresidente Quantum Services and data di IBM – ma è un parametro che dipende dall’interazione tra il processore quantistico e l’infrastruttura di calcolo classica. Per questo, una delle sfide più attuali e importanti a cui stiamo lavorando riguarda il riuscire a far entrare e uscire i dati ed elaborarli sul lato classico senza che si creino colli di bottiglia. O gestendoli”.

Incontrato durante IBM Techxchange Summit EMEA 2024 a Barcellona, Faro ricorda i principali passi avanti dell’anno appena concluso. Il primo pensiero va a Heron, un nuovo chip con “solo” 6 qubit in più rispetto al precedente (si passa da 127 a 133) ma performance circa 5 volte maggiori. “Con questo chip abbiamo ottenuto ottimi risultati nella riduzione dell’errore, problema bloccante per tutto il mondo del quantum computing. Vogliamo minimizzarlo fino ad avvicinarci allo zero” spiega Faro, accennando a un processo completamente nuovo messo in campo, per fare in modo che i qubit siano in grado di eseguire più operazioni con un minor tasso di errore.

Questo quadrato di 10 cm per lato è stato realizzato con tecniche di packaging avanzate che prevedono l’uso di più strati di metallo superconduttore per confezionare e collegare i vari qubit superconduttori. Agli occhi di chi conosce i programmi di IBM, rappresenta chiaramente il primo passo verso un approccio modulare che (ri)mette al centro il concetto di connettività. Oggi essa avviene in maniera classica, con le informazioni che vengono convertite prima in un segnale classico e poi di nuovo ri-convertite in uno quantistico, ma il futuro è ancora da scrivere.

Disponibile a utenti tramite i cloud services IBM, Heron è l’unità di calcolo che alimenta il Quantum System Two, processore modulare che in 6,7 per 3,6 metri contiene un sistema di raffreddamento che promette lo zero assoluto e ammicca alla scalabilità dei computer quantistici del futuro, i protagonisti di quello immaginato da IBM. Ancora, Condor nasce in virtù della scalabilità e principalmente per testare i limiti oggi presenti in tal senso. È il primo processore a superare la soglia dei 1000 qubit con i suoi 1121, mostrando un record di densità su un singolo chip che IBM ha intenzione di continuare a migliorare, lavorando sull’architettura, oltre che sui materiali.

Error-free entro il 2029, 1 miliardo di gate nel 2033

“Spingiamo i limiti di tutto per capire dove si rompono le cose”. Per leggere davvero la roadmap quantistica di IBM, e non facendo scorrere davanti agli occhi le date come fosse una banale timeline, è necessario tenere a mente queste parole pronunciate da Faro a Barcellona. Sono la chiave per comprendere che annunci e annunciati obiettivi rappresentano uno per uno “la sfida a un particolare ostacolo tecnologico che vogliamo vincere”. Ogni volta si dovranno mettere in campo innovazioni leggermente diverse, non sempre ovvie sia per chi le implementa, sia per chi è chiamato ad accoglierle e integrarle.

Giunti in piena fase di quantum computing utility-scale, esso si può considerare uno strumento aggiuntivo per guardare a un’area diversa dello spazio di calcolo prima inaccessibile, e forse impensabile. “L’obiettivo è però arrivare nel 2029 a un error-free computer – spiega Petra Florizoone, direttrice Quantum Sales EMEA di IBM – ma non sarà un ‘big bang’. I cambiamenti stanno avvenendo adesso già su molti livelli e dobbiamo iniziare a ragionare subiti in termini quantistici”. Infatti, ogni tappa della roadmap già dal 2023 rappresenta una base per raggiungere gli obiettivi che costellano la roadmap fino al 2033. “Il piano – aggiunge Florizoone – è continuare a scalare e fornire valore agli utenti attraverso architetture modulari”.

In un continuo crescendo del numero di porte logiche, dalle 5000 del 2024 alle 15.000 del 2028, nel 2029 IBM progetta il grande passo di 4 ordini di grandezza, per raggiungere i 100 milioni di porte logiche con 200 qubit. Saranno le performance di Starling, processore che permetterà di eseguire programmi di portata molto più ampia rispetto a ora e applicazioni pratiche effettive. La roadmap prevede però un ulteriore traguardo, quello di un miliardo di porte logiche, con il processore Blue Jay programmato per il 2033

Non solo hardware: anche software e competenze quantistiche

Esiste anche una roadmap parallela, una sorta di “fiume sotterraneo” che fatica a trovare spazio nella competizione “a suon di qubit” che cattura l’attenzione del settore. È quella che riguarda il software e a cui IBM sta lavorando, “layers su layers”, per semplificare l’accesso all’uso del quantum computing alle persone. Oggi c’è Qiskit 1.0 che “permette di creare software da eseguire sull’esistente hardware in modo intuitivo e accessibile. Vogliamo aggiungere un nuovo strato con un set di strumenti per permettere all’utente di creare veri e propri nuovi algoritmi attraverso semplici building block – spiega Faro – ci saranno quattro livelli, uno per mappare il problema classico e trasportarlo nel contesto quantistico, uno per ottimizzarlo per uno specifico hardware, un terzo che vi esegue il problema e l’ultimo che ‘restituisce’ i risultati ottenuti all’ambito classico. Immaginiamo un loop di interazione continuo tra contesto quantistico e classico, in grado di accelerare il calcolo come in altre situazioni fa una GPU. L’idea è quella di combinare la simulazione quantistica e il calcolo classico e automatizzando il ‘passaggio’ del problema tra l’uno e l’altro”.

Una convivenza che si fa sempre più possibile e accessibile e che in futuro potrebbe essere proposta da IBM anche con un approccio “as-a-service”. È un’ipotesi che Faro e Florizoone a Barcellona non scartano, anzi, che immaginano come “una modalità interessante di sharing capabilities adatta sia alle università che alle imprese. Anche se avere un computer quantistico tutto per sé offre vantaggi soprattutto dal punto di vista della sensibilizzazione e del coinvolgimento dell’ecosistema locale”. L’esempio riportato da Florizoone è la collaborazione con l’Università di Tokyo. A fine 2023, assieme hanno annunciato l’installazione di un processore IBM Quantum Eagle a 127 qubit, ora operativo nel primo IBM Quantum System One del Giappone. L’accordo, che IBM definisce “esemplare”, permette ai ricercatori di sfruttare la nuova potenza di calcolo soprattutto nel campo della bioinformatica, della fisica delle alte energie, della scienza dei materiali e della finanza. I vantaggi arrivano anche dal punto di vista della “propensione” al quantum computing dei giovani e delle imprese che, grazie al processore “ospite”, sarebbero maggiormente spinte a sperimentare e pensare a un futuro ibrido, classico e quantistico.

L’impatto di tale affezione sulle competenze del Giappone del futuro potrebbe essere significativo, proprio quello che occorrerebbe creare anche nel contesto europeo. Florizoone parla infatti con evidente preoccupazione della “situazione talenti” nel continente: la loro scarsità è preoccupante, sia per la stessa IBM, sia per tutto l’ecosistema che sta costruendo attorno alla roadmap. Serve fare squadra e, soprattutto, fare in modo che ci sia una maggiore consapevolezza dell’importanza di investire adesso in quantum computing, nonostante l’errore quantistico prometta di accompagnarci fino al 2029. In Italia più che in altri paesi, il rischio di commettere l’errore “umano” di ignorare questa priorità è alto ed è da annientare subito.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 4