Sembra quasi di nascondere i propri problemi sotto il tappeto, ma è proprio così che funziona la carbon capture. Si cattura la CO2 nel luogo di emissione per trasportarla in una struttura e isolarla nel sottosuolo.
Al momento risulta una delle poche soluzioni efficaci (per lo meno nel breve termine) per limitare l’impatto di emissioni che crescono con un ritmo surreale. In 40 anni, +90%, con un’accelerazione nell’ultimo triennio innescata dalla digitalizzazione e dalla crisi climatica.
Questo processo, contestato da chi lo considera una sorta di “pezza” che non risolve il problema ma si limita a rimandarlo, permette il raggiungimento dell’obiettivo di evitare che la CO2 entri nell’atmosfera. Oltretutto, genera dei sottoprodotti che richiedono non banali procedure di stoccaggio e gestione. Una criticità per cui gli esperti hanno proposto svariate soluzioni, a seconda anche del tipo di reattore impiegato. Quella dal potere rivoluzionario, però, sta per arrivare solo adesso ed eliminerebbe la presenza di protossido di azoto e altri derivati dalle reazioni di cattura.
Prima, però, c’è da superare un ostacolo computazionale non banale perché, all’aumentare delle dimensioni di un reattore, cresce anche la complessità del processo risolutivo. Per compiere questo ultimo miglio che ci separa da un miglioramento nel processo di carbon capture è stato invocato e ottenuto il potere di calcolo del supercomputer più potente del mondo: Frontier.
Miliardi di particelle da modellare: un’impresa da exascale
Realizzato da HPE presso l’Oak Ridge National Laboratory, negli Stati Uniti, questa “macchina” è stata ufficialmente la prima in grado di superare la soglia dell’exaflop. Al momento raggiunge 1,1 exaflops, ma può arrivare teoricamente a 2 exaflops. Da sola consuma 21,1 MW generando una quantità di calore tale da richiedere oltre 22.700 litri di acqua fatta circolare con pompe da piscina olimpionica in cicli di 30 minuti.
Le sue inedite performance sono ora necessarie per trovare una via d’uscita alla complessità presentata dalla cattura di carbonio green. E il mondo dell’innovazione e della tecnologia sorride al pensiero di poter utilizzare questo gigante del computing per risolvere un problema globale a cui direttamente contribuisce insieme ai suoi “colleghi” (compresi quelli cinesi, non dichiarati apertamente) in qualità di potenti emettitori di CO2.
Per vedere il nesso tra supercomputer ed emissioni di carbonio è necessario comprendere gli impatti della novità introdotta nella reazione chimica utilizzata. Per evitare protossido di azoto o altri sottoprodotti nocivi, stavolta si fornisce ossigeno alla reazione utilizzando un ossido metallico. Gli unici gas così risultanti sono anidride carbonica e vapore acqueo: lasciando condensare il secondo, si ottiene un flusso di CO2 puro da utilizzare o da immagazzinare.
Già funzionante su piccola scala, questa innovazione deve ancora essere sperimentata e validata su sistemi di grandi dimensioni, come i reattori realmente coinvolti. Non è un passaggio scontato: le dimensioni delle particelle non cambiano ma le condizioni di flusso sì. Ne conseguono diversi comportamenti di miscelazione, diverse quantità di contatto tra gas e solido, diverse prestazioni complessive dell’unità.
Il nuovo approccio green alla cattura del carbonio è quindi ancora da modellare con cura. Prima di dichiararlo “la soluzione” ci sono miliardi di particelle da tracciare singolarmente per simulare un’interazione gas-solido su scale temporali definite. Una sfida computazionale non per tutti.
Entro fine anno, Frontier full time per gestire la CO2
Grazie alle performance di Frontier, si punta a comprendere quali modifiche apportare alla geometria e al comportamento del flusso per ottenere la giusta quantità di miscelazione per il trasferimento di calore, le reazioni chimiche e altri processi che devono rientrare in una particolare finestra temporale. Aspetti specifici della soluzione di cui si sta occupando il National Energy Technology Laboratory (NETL).
Il suo obiettivo è modellare la fattibilità del passaggio della cattura pulita del carbonio, da un esperimento di laboratorio su piccola scala a una scala molto più ampia, entro la fine dell’anno. Un obiettivo complesso ma non utopistico, perché un exascale permette di esaminare sistemi più grandi con una risoluzione molto più elevata fornendo informazioni su condizioni operative o potenziali problemi.
Il gruppo di lavoro “pretende” proprio un exascale senza potersi accontentare di altro perché, nel contesto studiato, il passaggio da un piccolo dispositivo sperimentale a uno molto più grande presenta una scalabilità non lineare. Richiede la riscrittura completa dei modelli fisici dal loro codice MFIX, e il trasferimento alle GPU seguito dai test. Solo Frontier e pochi altri supercomputer sono in grado di supportare questa impresa dedicandosi a essa quasi al 100%. Gli altri progetti restano in coda.