Il futuro è ibrido, anche per il quantum computing. Questo nuovo paradigma di calcolo è infatti destinato a convivere con quello classico, quello con cui tutti hanno già familiarità. Una delle tante sfide da non trascurare, quindi, è il combinare supercomputer e calcolo basato sui qubit, senza perdere d’occhio le interazioni con l’intelligenza artificiale e le sue tante declinazioni. Microsoft ha di recente presentato un consistente passo avanti, da questo punto di vista, permettendo di passare dalla dimensione teorica delle simulazioni, a quella pratica e concreta dell’hardware.
Un codice ibrido e comprensibile ai qubit
Per rendere più seamless possibile l’integrazione operativa tra i due computer, è necessaria una potenza di calcolo enorme e tutto un intero computer dalle performance affinate ad hoc. Se si vuole ottenere la tolleranza ai guasti, serve infatti un dispositivo di classe petaflop, come minimo, e in grado di interfacciarsi con gli elementi quantistici a 10-100Tbit/sec. E serve stare nel cloud, requisito fondamentale che, per ora, non ammette alternative. Con l’idea di “fault tolerance”, stiamo parlando di orizzonti ancora lontani, ma come per ogni innovazione, il terreno perché dia frutto va preparato prima. È per questo che Microsoft ha voluto offrire ai developer l’opportunità di portarsi concretamente avanti, pensando a come gli algoritmi quantistici possano essere utilizzati per accelerare i carichi di lavoro esistenti. Classici. Lo ha fatto la scorsa settimana, lanciando Azure Quantum.
Si tratta di una piattaforma che “parla” un linguaggio composto da un mix di codice classico e quantistico. Il vantaggio è che viene compreso dai dispositivi quantistici attualmente in uso.
Finora è stato possibile fare questo passo nel futuro solo in ambienti emulati o simulati. Quello che Microsoft afferma di poter offrire, è una sperimentazione su vero e proprio hardware.
L’affollata corsa all’integrazione quantum/classic computing
Consapevole di non essere la prima a imboccare questa strada, Microsoft la percorre cercando di mettere in luce gli elementi di unicità della propria soluzione. Sa che non può far leva solo sul proprio potere di mercato, perché anche altre big tech stanno affrontando lo stesso ostacolo. Intel lo ha esplicitato lanciando il proprio kit di sviluppo software quantistico. In questo caso si punta su qubit simulati che girano su hardware convenzionale, sempre per semplificare lo sviluppo di algoritmi quantistici utili in futuro. La stessa scelta di Fujitsu che sta utilizzando qubit simili sui suoi processori A64FX basati su ARM per esplorare architetture ibride-quantistiche.
Da ricordare anche lo sforzo di IBM, che sta lavorando già da anni per lanciare qubit basati su cloud e, di recente, ha attivato il suo sistema Osprey a 433 qubit. Anche in Europa qualcosa si muove: alcuni ricercatori finlandesi del VTT hanno inserito un “mini” computer quantistico (HELMI) nel supercomputer più potente d’Europa, LUMI. Un progetto che guarda a un futuro basato su sistemi quantistici ibridi. Un progetto che, nel presente, vuole comprendere come il calcolo quantistico potrebbe velocizzare lo sviluppo di algoritmi e software quantistici.
Tanti soggetti intenti a incastrare due paradigmi completamente distanti, ma chiamati a collaborare, fanno presagire uno scenario luminoso nel prossimo futuro. Potremmo essere sulla strada giusta e potremmo contare su una sana competizione, a beneficio di tutti coloro che esprimono la voglia di sperimentare.