Prospettive

Intelligenza artificiale per l’efficienza dei Data Center: dal MIT di Boston un nuovo sistema

L’intelligenza artificiale potrebbe aiutare i Data Center a funzionare in modo molto più efficiente. Ne sono convinti al MIT, il Massachusetts Institute of Technology di Boston: alcuni ricercatori hanno messo a punto un nuovo sistema che impara come ottimizzare l’allocazione dei carichi di lavoro su migliaia di server per ridurre i costi e risparmiare energia.

Pubblicato il 05 Set 2019

Data Center

L’efficienza energetica ed il risparmio dei costi sono obiettivi di lunga data per chi si occupa di gestire ed ottimizzare i Data Center. Centri nevralgici da cui dipendono processi, comunicazioni e tutti i servizi che fanno ormai parte di tutte le attività aziendali, i Data Center sono tutt’ora energivori, nonostante negli ultimi decenni si sia fatto molto da punto di vista dell’ottimizzazione delle infrastrutture (con il consolidamento e la virtualizzazione di server, storage e network) e della gestione intelligente di power & cooling (energia e sistemi di raffreddamento). Un passo in avanti si potrebbe fare sfruttando le peculiarità tecnologiche di alcune soluzioni basate su intelligenza artificiale.

Che l’intelligenza artificiale possa essere applicata anche al mondo IT e della Computer Science non è una novità, così come non lo è il fatto di vederla utilizzata nell’ambito della gestione dei Data Center: nel 2018 Google annunciò di aver messo a punto un sistema basato su intelligenza artificiale i cui obiettivi iniziali erano il risparmio energetico e minori costi di gestione [migliaia di sensori sparsi nei Data Center alimentano una rete neurale profonda che fa avanzate analisi suggerendo in modo automatico che azioni intraprendere dando priorità, per volontà di Google stessa, ad azioni che privilegiano sicurezza e affidabilità rispetto a prestazioni e ai risparmi sui costi – ndr]. Il sistema di Google in poco tempo ha compreso quali soluzioni e scelte adottare per migliorare la gestione del raffreddamento del Data Center, con conseguenti risparmi sui costi ed una migliore efficienza energetica.

Reinforcement learning per pianificare e ottimizzare i carichi di lavoro nei Data Center

Al MIT, il Massachusetts Institute of Technology di Boston, hanno recentemente fatto un ulteriore passo in avanti in questa direzione sviluppando un nuovo sistema che impara autonomamente come pianificare le operazioni di elaborazione dei dati su migliaia di server in modo da ottimizzare l’impiego delle risorse (comprese quelle necessarie ad energia e raffreddamento), con conseguente riduzione dei costi.

L’allocazione dinamica delle risorse infrastrutturali per supportare l’elaborazione dati nei Data Center è un’attività che tradizionalmente è affidata ad algoritmi, solo che fino ad oggi questi venivano creati da esseri umani che privilegiavano policy e linee guida aziendali le quali, nella maggior parte dei casi, tenevano poco conto dell’efficienza energetica (se non come controllo sui costi complessivi) privilegiando performance ed affidabilità a supporto di processi e servizi applicativi.

I ricercatori del MIT di Boston hanno sviluppato nuove tecniche di machine learning basate sull’apprendimento con rinforzo stimolando il sistema ad auto-apprendere in base a regole, prove ed errori al fine di personalizzare le decisioni relative alla pianificazione dei carichi di lavoro (anche molto complessi), ossia allocare specifici workload in specifici cluster di server in modo da ottenere un’ottimizzazione dei carichi ed una migliore efficienza energetica.

In pratica, il sistema sviluppato dai ricercatori prova molti modi possibili per allocare i carichi di lavoro in entrata tra i server, trovando infine un compromesso ottimale nell’utilizzo delle risorse di calcolo e delle velocità di elaborazione. In tutto questo non è necessario alcun intervento umano, basta una semplice istruzione come quella che dice al sistema “minimizza i tempi di completamento del lavoro”.

Secondo quanto rivelato (e pubblicato) dagli scienziati che hanno lavorato al progetto, rispetto ai migliori algoritmi di programmazione scritti dagli esseri umani, il sistema sviluppato al MIT porta a termine lavori dal 20 al 30 percento più veloci, in generale, e due volte più veloci durante i periodi di “traffico intenso” (workload data intensive, come quelli derivanti dall’utilizzo massivo degli ERP, da applicazioni di analisi avanzate sui dati, ecc.).

Ad oggi, il sistema ha imparato come compattare i carichi di lavoro in modo efficiente per ridurre gli sprechi (di fatto è da qui che deriva l’efficienza energetica). I risultati lasciano però intravedere uno sbocco ulteriore, potrebbe fare in modo che il Data Center riesca a gestire lo stesso carico di lavoro a velocità più elevate, utilizzando meno risorse. Ed è qui che ci sarebbe la vera svolta sul fronte dell’efficienza.

“Non esiste una soluzione unica per prendere decisioni sulla pianificazione dei carichi di lavoro in un Data Center”, è quanto ha affermato Mohammad Alizadeh, professore e ricercatore EECS nel Computer Science and Artificial Intelligence Laboratory (CSAIL) nella pubblicazione scientifica con la quale è stato presentato il progetto. “Nei sistemi esistenti la pianificazione si basa su parametri codificati che devono essere decisi in anticipo. Il nostro sistema impara invece ad ottimizzare le caratteristiche dei suoi criteri di pianificazione, a seconda del Data Center e del carico di lavoro”.

Tutti i dettagli sul sistema di reinforcement learning sviluppato dal MIT e applicato alla pianificazione dei carichi di lavoro nei Data Center sono disponibili nell’articolo pubblicato da Rob Matheson su MIT News.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Nicoletta Boldrini
Nicoletta Boldrini

Segue da molti anni le novità e gli impatti dell'Information Technology e, più recentemente, delle tecnologie esponenziali sulle aziende e sul loro modo di "fare business", nonché sulle persone e la società. Il suo motto: sempre in marcia a caccia di innovazione #Hunting4Innovation

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 4