news

AI e consumi energetici: chi punta il dito e chi guarda il dito e non la luna



Indirizzo copiato

Un report promosso dalle Big Tech sull’energia spesa per il training e l’utilizzo di modelli di AI regala la possibilità di guardare al presente e al futuro con un differente punto di vista. Giusto o “di parte” che sia, è l’occasione per cogliere la complessità di un problema spesso affrontato semplificando i contesti e affrettandosi…

Pubblicato il 7 mar 2024

Marta Abba'

Giornalista



Shutterstock_2042393249 (1)

Se non ci pensa prima la crisi climatica a sterminare la specie umana, arriveremo a non avere più energia, a causa dalle più innovative ed emergenti applicazioni di AI e AI generativa che ne richiedono in abbondanti quantità.

Gli scenari che si prospettano all’orizzonte possono essere drammatici: il pendolo dell’informazione rischia di farci ondeggiare tra allarmismo e negazionismo, senza lasciare il tempo per compiere un’analisi più fredda di quello che ci si può aspettare. Il poter abbracciare la complessità di un contesto, prima di prevederne gli sviluppi, è diventato un lusso. L’occasione per imporsi di farlo può essere il report realizzato dal Center for Data Innovation (CDI) dell’Information Technology and Innovation Foundation, think tank sostenuto da big tech come Intel, Microsoft, Google, Meta e AMD. Si focalizza proprio sul consumo di energia legato all’utilizzo dell’AI e le difende da tutte le accuse.

Cosa “considerare di considerare” per stimare i consumi dell’AI

Discutibili o meno che siano le argomentazioni riportate, questo documento ha il merito di far cambiare il punto di vista con cui guardare il settore IT. E quindi di permettere di scorgerne dinamiche finora poco mostrate o esplorate.

Per realizzare stime accurate dell’uso di energia e delle emissioni di carbonio dei sistemi di intelligenza artificiale è necessario considerare molti fattori. Più di quelli che finora la maggior parte di chi si è scatenato in previsioni apocalittiche ha analizzato. A impattare sul risultato ci sono infatti i dettagli e gli sviluppi dei chip, la tipologia dei sistemi di raffreddamento, il design del data center e le caratteristiche del software. Anche il carico di lavoro è un parametro importante da valutare, oltre alla scelta delle fonti di energia elettrica che può essere spesso decisiva.

Anche chi è consapevole di dover compiere un’analisi complessa prima di “dettare sentenze”, non ha la strada spianata. Quando si tratta di stimare l’energia “consumata” dall’AI, emerge un grosso problema di dati. Quelli di base non sono noti con precisione, quelli empirici sono limitati, quelli più utili sono spesso proprietari e la tecnologia cambia così rapidamente che anche quei pochi accurati che si riescono a ottenere rischiano di diventare rapidamente obsoleti.

Non mancano le sfide per chi vuole ottenere una reale e affidabile stima dei consumi energetici, quindi. Per provare a semplificare l’impresa, si possono dividere in due: quelli per il training e quelli durante l’inferenza (la fase di impiego del modello AI, per esempio per rispondere alle domande che un umano pone).

Per quanto riguarda l’addestramento, l’errore più frequente di chi ne sovrastima l’impatto energetico è quello di considerare degli esempi atipici per proiettarne i consumi futuri. Il rischio è quello di ottenere cifre esageratamente elevate, non tenendo conto che invece variano in modo significativo tra i diversi modelli di AI impiegati per ottenere quanto desiderato. Una risposta di testo, per esempio, “consuma” meno di una immagine. Andrebbero considerati anche l’aumento di efficienza del training dei modelli di intelligenza artificiale e il mix energetico scelto per alimentare i data center impiegati, sperabilmente sempre più di carattere rinnovabile.

Passando all’inferenza, la prima considerazione da fare è relativa al suo impatto sui consumi totali di AI. Il training avviene infatti una tantum mentre l’utilizzo del modello è poi continuo e prolungato. Amazon Web Services stima, per esempio, che il 90% del costo energetico di un modello di AI derivi dall’inferenza e le altre big tech suggeriscono percentuali simili. La verità è che la ripartizione esatta tra addestramento e inferenza varia a seconda dei casi d’uso e generalizzare rischia di essere fuorviante. Anche l’energia stessa “pretesa” da un modello quando utilizzato è influenzata da molti fattori: quando si tratta di classificare un testo è meno intensivo rispetto alla generazione di immagini, per esempio. Quando si hanno pochi parametri, inoltre, si ha bisogno di meno energia per l’inferenza.

Uno scenario in continuo mutamento

Volendo guardare al futuro, è necessario farlo in modo “esauriente”. Ciò significa tener conto degli sviluppi tecnologici, sociali, economici e geopolitici, perché i consumi di energia sono un tema trasversale che non può restare a livello settoriale e verticale. Mese dopo mese le aziende stanno continuamente migliorando i propri prodotti in chiave ambientale perché il mercato e le norme lo impongono. Di questo va tenuto conto quando si proiettano i consumi nel futuro, come anche degli effetti di una commercializzazione diffusa dell’AI che innescherà dinamiche economiche interessanti. Acquistare più chip, costruire più data center e alimentarli è costoso e le aziende, non potendo contare su budget infiniti, inizieranno quindi a ragionare su un impiego dell’AI guidato dalle sue spese anche energetiche. Ciò potrebbe significare che i loro ricercatori e sviluppatori si concentreranno sull’ottimizzazione e sull’accuratezza, piuttosto che sulla realizzazione di modelli più grandi. I più ottimisti possono ipotizzare anche miglioramenti nell’hardware e nel software che probabilmente terranno sotto controllo il ritmo della crescita energetica dell’AI.

Ci sarebbe poi anche l’”effetto sostituzione” legato all’AI o, per meglio dire, legato a tutto ciò che l’AI permette di non fare. In alcune situazioni, infatti, a un consumo di energia in AI corrisponde un consumo evitato di energia per un altro processo che il modello AI ha sostituito. Una domanda a ChatGPT (o simili) può essere per esempio una mancata manciata di ricerche in Google (o simili).

Il report accenna anche al potenziale ruolo che l’AI potrebbe giocare nell’affrontare la crisi climatica e mitigarne gli effetti, per esempio rilevando e analizzando le emissioni dai dati satellitari per aiutare le autorità di regolamentazione a monitorarle più efficacemente. Un’opzione che dipende da noi e da come vorremo utilizzare l’AI in questi anni. E da come la vorranno usare i governi e le imprese. Ai primi, le big tech rivolgono alcune esplicite richieste “tramite report”. La loro priorità sembrerebbe quella di avere standard di trasparenza energetica per i modelli di AI e impegni volontari in tal merito, importante sarebbe anche a loro avviso considerare le conseguenze non intenzionali delle normative sull’AI sull’uso dell’energia che potrebbero limitarne anche gli impatti positivi. E poi terminano con un invito “provocatorio”: utilizzare l’AI per iniziare a decarbonizzare le attività di governo. Provocatorio ma del tutto coerente con il loro report e le dichiarazioni ESG di tanti Paesi a cui da anni assistiamo.

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5