I data center sono destinati a rimanere un elemento centrale nell’articolato universo digitale che, con l’avvento delle nuove tecnologie “disruptive” (Cloud, 5G, blockchain, IoT), necessiterà sempre più di strutture centralizzate in grado di elaborare e manipolare i dati in sicurezza e in tempi stretti. I data center assumeranno nel prossimo futuro un ruolo sempre più centrale e determinante nell’evoluzione della società e dell’economia di tutto il mondo, basate ormai in maniera irreversibile su tecnologie, architetture digitali e software che acquisiscono, producono, scambiano ed elaborano informazioni in tempo reale e senza soluzione di continuità.
Se, infatti, è ormai un dato assodato che la rivoluzione informatica del nuovo millennio stia spingendo verso soluzioni in grado di interconnettere tra loro oggetti, esseri viventi, edifici, strumenti medicali etc attraverso la cosiddetta Internet delle cose o l’edge computing, è immediatamente comprensibile come sia indispensabile la presenza di “cervelli elettronici” capaci di fornire una logica e un senso all’enorme volume di dati generati in intervalli di tempo sempre più ristretti.
Data center, edge computer e 5G
Per comprendere meglio quale sia la reale importanza di un “quartier generale” centralizzato all’interno di ambienti distribuiti, proviamo ad analizzare uno scenario applicativo estremamente significativo perché connesso alla salvaguardia e all’incolumità pubblica, ossia quello di una rete di sensori deputati a monitorare l’innalzamento delle acque di un fiume: in tale contesto, avrebbe un impatto maggiore il malfunzionamento di un singolo misuratore digitale o l’incapacità, anche momentanea, di un supercalcolatore che deve incrociare tutti i dati e lanciare l’allarme al verificarsi di specifiche condizioni? In altri termini, avrebbe senso acquisire, immagazzinare e trasmettere informazioni anche vitali se poi non è possibile utilizzarle in tempo utile per raggiungere i propri obiettivi?
Ragionamenti e conclusioni di questo genere diventeranno ancora più importanti con l’avvento, ormai imminente, di tecnologie quali il 5G, che, di fatto, aprirà la strada verso un nuovo mondo interamente interconnesso, o con la diffusione di soluzioni ancora in fase embrionale come le auto a guida autonoma o l’intelligenza artificiale.
Analizzato sotto questa prospettiva anche il Cloud può essere considerato come un elemento catalizzatore verso la nascita di Centri di Elaborazione Dati di nuova generazione che, immagazzinando a ciclo continuo documenti e byte da tutto il mondo, porteranno in dote ai loro proprietari anche una buona dose di potere, notorietà e capacità di negoziazione.
La corsa verso i data center
In tale contesto, la tendenza, secondo i principali analisti del settore, è quella di una vera e propria corsa verso l’implementazione di data center complessi e sofisticati, dotati di server ad altissima capacità elaborativa, canali di comunicazione digitali estremamente affidabili ma soprattutto in grado di garantire prestazioni elevate con un utilizzo limitato di risorse economiche e ambientali.
La sfida, invero, era già stata raccolta e rilanciata dalla Cina che, alla fine della prima decade del nuovo millennio, aveva individuato un’area della “Mongolia Interna” quale sito ideale per la costruzione di data center dalle dimensioni colossali, destinati a conquistare in pochi anni il mondo sotto il profilo del dominio digitale.
Non è un caso che questa zona semi-desertica, tradizionalmente dedita all’agricoltura e all’allevamento brado dei cavalli e degli ovini, sia divenuta oggetto di ingenti investimenti da parte dei più importanti player nel settore informatico che, sfruttando i servizi complementari e le infrastrutture di supporto creati negli ultimi anni da governo cinese, stanno costruendo nuovi data center ad un ritmo decisamente incalzante.
Non bisogna, inoltre, sottovalutare l’impatto politico e strategico connesso alla delocalizzazione dei CED in particolari aree geografiche: nell’ancora immaturo diritto informatico internazionale, infatti, non è pienamente chiaro quali siano i vincoli normativi e i poteri di giurisdizione in capo ai diversi Stati nei confronti di strutture che elaborano dati provenienti da tutto il mondo.
Seppur focalizzato su aspetti riguardanti la privacy, un caso importante a livello normativo è quello del GDPR che, di fatto, pone sotto la lente d’ingrandimento i data center situati in paesi extracomunitari, imponendo il rispetto di misure di sicurezza aggiuntive a volte estremamente onerose.
Non è certamente una coincidenza se a partire dal 2018 si registra un incremento di data center, costruiti soprattutto da colossi americani o asiatici, sul suolo comunitario con un conseguente spostamento di risorse, dati ed investimenti verso il vecchio continente.
L’esempio maggiormente eclatante, anche perché molto recente, sotto questo punto di vista è rappresentato dall’annuncio del gigante cinese Tik Tok dell’apertura di un centro di elaborazione dati in Irlanda, interamente dedicato a raccogliere video, messaggi e altri dati generati dagli utenti europei. La mossa dell’azienda asiatica, che garantirà un investimento di circa 500 milioni di euro e creerà centinaia di posti di lavoro, assume un valore ancora più importante se riconnessa alla controversia aperta negli Stati Uniti dal Governo Trump, preoccupato per gli impatti sulla sicurezza nazionale derivanti dal continuo travaso di dati di cittadini americani versi i quartieri generali di Tik Tok con sede a Singapore.
CED e nuove tecnologie
Un ulteriore elemento in grado di imprimere un’accelerazione verso i CED di nuova generazione è, come anticipato, rappresentato dalle cosiddette tecnologie “disruptive” che nei prossimi anni potranno completamente rivoluzionare il nostro modo di vivere e agire.
Sembra, ad esempio, essere ormai in dirittura d’arrivo il lancio del 5G che, ben lungi dall’essere una semplice evoluzione nel campo delle telecomunicazioni, aprirà la strada verso l’interconnessione continua di uomini, dispositivi ed oggetti, creando una rete universale in grado di scambiare quantità di dati inimmaginabili solo pochi anni fa.
Non è, però, ipotizzabile che le interlocuzioni digitali dell’Internet delle cose avvengano in maniera diretta e non filtrata tra mittente e destinatario che, in molti casi, assumeranno il ruolo di “generatore” o “ricevitore” di dati o comandi elaborati, interconnessi, interpolati e analizzati da mega-macchine allocate in data center molto potenti.
Pensiamo, ad esempio, a un sistema antincendio totalmente automatizzato basato sull’IoT nel quale ogni oggetto di un particolare sito sia in grado di misurare e comunicare in tempo reale la propria temperatura a un “controller” deputato ad attivare, in caso di necessità, i dispositivi di raffreddamento o spegnimento. Ponendoci nell’ottica di un flusso continuo di informazioni derivanti da migliaia di componenti che potrebbero anche generare, per le motivazioni più disparate, “falsi positivi” o “falsi negativi”, sarebbe ipotizzabile una verifica “locale” di tutti i dati da parte di un modulo specializzato o, molto più verosimilmente, sarebbe necessario, anche ai fini della sicurezza inoltrare le interlocuzioni digitali verso un data center attrezzato con dispositivi ultra-tecnologici in grado di effettuare calcoli ed inferenze di tipo statistico in poche frazioni di secondo?
Trasportando questo semplice scenario su larga scala ed estendendo l’ambito all’infinito insieme di applicazioni nelle quali il 5G e l’IoT potranno intervenire, è facilmente intuibile come i data center di nuova generazione diventeranno anelli di pregio in una catena di valore inestimabile.
Considerazioni del tutto analoghe possono essere formulate in relazione all’intelligenza artificiale che, per sua natura, richiede l’impiego di elevate risorse computazionali, difficilmente trasportabili su dispositivi di tipo “client” orientati verso la dinamicità e la leggerezza più che verso la potenza di calcolo.
Esempi pratici: assistenti virtuali e auto a guida autonoma
Anche in questo caso, per avere un quadro più realistico della situazione è possibile far riferimento ad esempi di tipo concreto quali possono essere gli “assistenti virtuali” disponibili nei sistemi mobili Android e Apple che, allo stato attuale, per funzionare richiedono una connessione verso internet. Il meccanismo di fondo è estremamente semplice: il nostro smartphone ascolta il comando vocale e invia anonimamente i dati vocali verso server, che convertono l’audio in testo, interpretano il comando e restituiscono il risultato finale.
In estrema sintesi, come nel caso dei sensori o degli oggetti che misurano la propria temperatura, i nostri dispositivi svolgono semplicemente il ruolo di produttori di dati e ricevitori di comandi delegando a computer remoti il compito di elaborare le informazioni e adottare le decisioni conseguenti.
Un altro elemento in grado di imprimere una svolta nella storia e nella fisionomia dei data center è rappresentato da uno dei “trend topic” digitali degli ultimi anni ossia dalla blockchain, che, in estrema sintesi, potrebbe utilizzare CED super-sicuri in tutto il mondo per verificare e certificare le modifiche ai set di dati dei propri database distribuiti.
Considerando che, secondo le stime della società di ricerca “Research and Markets”, il mercato della blockchain è destinato a passare dai 2,5 miliardi di dollari di oggi ai 20 miliardi del 2025, è del tutto evidente come i nuovi data center dovranno farsi trovare pronti per questa nuova sfida che potrebbe rivoluzionare i rapporti di forza in tutto il mondo.
In questa carrellata di tecnologie emergenti in grado di modellare il futuro dei database non sarebbe certamente possibile tralasciare l’edge-computing che, sfruttando la disponibilità sul mercato a un costo sempre più accessibile di componenti e sistemi elettronici di piccole dimensioni (conosciuti come SFF o small form factor), mira a portare i dispositivi basilari di elaborazione, storage e networking quanto più vicino possibile alle fonti che materialmente generano i dati.
Per comprendere al meglio il quadro di riferimento, si pensi ad esempio al caso specifico delle auto a guida autonoma nel quale è necessario acquisire, inviare ed elaborare dati in poche frazioni di secondo per poter rispondere in tempo reale e senza ritardi a scenari anche freneticamente mutevoli, dai quali dipende l’incolumità fisica di diverse persone. È del tutto evidente come sia fondamentale superare problemi connessa alla latenza, alla mancanza di banda, all’affidabilità, non affrontabili in maniera efficiente attraverso il modello cloud convenzionale. In tali casi l’utilizzo di un’architettura basata su edge computing è sicuramente in grado di ridurre la mole di informazioni da scambiare, elaborando i dati critici, sensibili ai ritardi, direttamente nel punto di origine, tramite un dispositivo intelligente, oppure inviandoli a un server intermedio, localizzato nelle immediate vicinanze. Allo stesso tempo, però, sarebbe possibile trasmettere i dati meno critici all’infrastruttura cloud o al data center “classico”, per consentire elaborazioni più complesse, come l’analisi di big data, le attività di training per affinare l’apprendimento degli algoritmi di machine learning, l’archiviazione di lungo periodo, l’analisi delle serie storiche, etc.
Il nodo della sostenibilità e la rivoluzione verde
La nuova rivoluzione digitale sta riproponendo, sotto alcuni aspetti, problemi e criticità simili a quelle già sperimentate più di un secolo fa con la nascita delle grandi fabbriche e la proliferazione dell’industria su larga scala.
Anche oggi, infatti, un nodo cruciale è rappresentato dagli impatti ambientali delle nuove tecnologie che, seppur in maniera meno “evidente” rispetto al passato, utilizzano una quantità spesso esagerata di risorse rischiando di compromettere equilibri già fortemente minacciati da anni di incuria e sottovalutazione di tali aspetti.
È necessario, infatti, considerare come un centro di elaborazione dati per poter correttamente funzionare e, soprattutto, per fornire risposte in tempi rapidi a tutti gli utilizzatori, umani o tecnologici, dei propri servizi consuma per l’alimentazione e il raffreddamento dei propri sistemi un quantitativo decisamente elevato di energia, che sta esponenzialmente crescendo nel corso degli anni.
Sistema di raffreddamento di un data center
Un data center dal fabbisogno di 150 megawatt
Secondo i dati del portale World’s Top Data Centers, che censisce i CED più importanti di tutto il mondo, l’Inner Mongolia Information Park, di proprietà di China Telecom e costruito nell’ambito della campagna di espansione digitale descritta in precedenza, oltre a presentare l’incredibile estensione di circa 3 km quadrati (pari a quella di un piccolo comune italiano), deve essere alimentato con una potenza di addirittura 150 megawatt, sufficiente a coprire il fabbisogno energetico di circa 80mila famiglie.
Si tratta, com’è di tutta evidenza, di cifre estremamente significative, che richiedono uno sforzo collettivo per una migrazione verso soluzioni compatibili con l’ambiente e basate sull’utilizzo di energie rinnovabili.
Se, quindi, fino a poco tempo fa i parametri principali utilizzati per la classificazione e il rating dei data center erano tutti connessi ad aree in grado di misurare l’efficienza, la potenza di calcolo, la capacità di risposta in tempi rapidi, negli ultimi anni si sta assistendo a un repentino cambio di rotta e ad una vera e propria “rivoluzione verde”, nella quale sono impegnate le principali multinazionali del settore ICT.
Apple, ad esempio, ha effettuato ingenti investimenti finalizzati a convertire i sistemi di alimentazione dei propri data center secondo logiche compatibili con l’utilizzo di energia “pulita” e completamente rinnovabile. Tra le azioni più significative condotte dalla multinazionale statunitense, è possibile menzionare la costruzione dei più grandi parchi solari privati nella Carolina del Nord, la collaborazione con NV Energy in Nevada per alimentare il nuovo data center Reno con energia solare e geotermica e l’acquisto di energia eolica per i CED situati nell’Oregon e nella California.
Particolarmente interessante, nell’ambito della svolta “green” dei data center mondiali, è la storia di “Open Compute Project”, lanciato da Facebook nel 2009, ossia in un momento nel quale il colosso fondato da Mark Zuckerberg cresceva in modo esponenziale, offrendo nuovi servizi attraverso l’ormai celeberrima piattaforma per condividere foto e video.
Il grande merito dell’azienda americana fu in prima battuta quello di ripensare, in tempo utile, la propria infrastruttura per accogliere il prevedibile enorme afflusso di dati, contenendo i costi e il consumo di energia, e successivamente quello di aver condiviso i propri progetti con attori del calibro di Intel, Rackspace, Goldman Sachs e Andy Bechtolsheim con l’intento di dar vita a un movimento nell’ambito dell’hardware in grado di generare lo stesso tipo di creatività e collaborazione tipici del mondo del software open source.
Fu, in qualche modo, un segnale inequivocabile di un cambiamento ormai in atto che avrebbe innescato, come in una virtuosa reazione a catena, una serie di altre iniziative, destinate a trasformare i connotati dei data center ed avviarli verso una nuova era eco-compatibile.
Il data center di China Telecom
Il CED subacqueo di Microsoft
Non poteva non cogliere la nuova sensibilità un’azienda leader del settore ICT come Microsoft, fondata, tra l’altro, da un magnate, Bill Gates, che ha fatto della filantropia e dell’attenzione verso l’umanità un tratto distintivo della propria esistenza.
In tale ambito, la casa di Redmond ha lanciato un progetto avveniristico quanto affascinante, progettando e mettendo in opera un CED subacqueo, posizionato a 35 metri di profondità nel mare del Nord e in grado di ospitare 865 server costantemente monitorati sotto il profilo delle prestazioni e dell’affidabilità.
Il punto di forza principale di tale data center è naturalmente quello di ricevere direttamente dalle fredde acque marine i mezzi necessari a compensare il surriscaldamento causato dall’operatività dei server e dei dispositivi di elaborazione ma, grazie all’intenso lavoro di progettazione del gruppo di lavoro targato Microsoft, il “sommergibile tecnologico” presenta anche altri importanti vantaggi come quello di essere completamente alimentato dalla luce solare e di riuscire a sfruttare le forti correnti e i venti per generare nuova energia totalmente rinnovabile.
Considerando, infine, che più della metà della popolazione mondiale vive nel raggio di 200 km dalle coste marine, è immediatamente comprensibile come posizionare, a regime, i data center sott’acqua garantirebbe vantaggi anche in termini di velocità per lo streaming, la navigazione e il video-gaming.
Il data center subacqueo di Microsoft
Video: (in inglese)
L’esempio italiano di Exe.it: data center a emissione negativa
Un caso particolarmente interessante nell’ambito dei data center innovativi e rispettosi delle politiche ambientali è quello realizzato dalla Exe.it a Castel San Pietro Terme (Bo), che si avvale della tecnologia Lenovo e presenta tutte le caratteristiche di un centro di elaborazione del prossimo futuro.
Secondo quanto afferma il CEO della società italiana, nel visionario data center “Tutte le soluzioni architetturali scelte hanno un unico obiettivo, la riduzione a livello zero delle emissioni. Abbiamo costruito una minima struttura portante in cemento, ma l’elemento predominante è il legno, in particolare i rivestimenti in lana di legno che risulta un materiale ignifugo”.
La struttura, in particolare, sfrutta i pannelli solari e un sistema di condizionamento dell’aria che permette di dissipare solamente il 21% dell’energia complessiva in raffreddamento a fronte del 55% registrato in un data center tradizionale.
Praticamente tutto il fabbisogno energetico è prodotto in maniera autonoma, tanto che, secondo quanto afferma il management della Exe.it, il data center può essere considerato “a emissione negativa, ovvero emette più energia pulita rispetto a quella consumata”.
Oltre alla particolare conformazione della struttura, la completa ecosostenibilità di “00Gate” (è questo il nome con quale il CED è stato ribattezzato) deriva anche e soprattutto dalla scelta di infrastrutture hardware specifiche, basate sulla piattaforma “Lenovo ThinkAgile CP”, che è stata pensata per coniugare elevate prestazioni con importanti risparmi energetici.
Non si tratta, invero, di una scelta casuale perché Lenovo può essere considerato, allo stato attuale, come il più importante fornitore di “supercomputer” in tutto il mondo potendo contare ben 173 installazioni in 19 differenti paesi.
Il data center di Exe.it a Castel S. Pietro (BO)
Conclusioni
I data center sono destinati a rimanere un elemento centrale nell’articolato universo digitale che, anche grazie all’avvento delle nuove tecnologie “disruptive” quali il Cloud, il 5G, la blockchain o l’IoT, necessiterà sempre più di strutture centralizzate in grado di elaborare e manipolare i dati in sicurezza ed in tempi strettissimi.
Per questo motivo, negli ultimi anni stiamo assistendo ad una vera e propria corsa verso la costruzione di CED super-tecnologici, dotati di server altamente performanti e canali di comunicazione veloci e innovativi, nella quale intervengono, in maniera a volte indiretta, i Governi ed i legislatori. Tra gli esempi più importanti, in tal senso, è possibile ricordare, dal punto di vista politico, l’acceso dibattito che negli Stati Uniti ha riguardato i data center di Tik Tok, considerati dalla Casa Bianca addirittura una minaccia per la sicurezza nazionale, e, sotto il profilo strettamente normativo, il GDPR, che pone limiti stringenti per il transito dei dati al di fuori dei confini comunitari.
Un caso particolare è quello della Cina che, alla fine dello scorso decennio, ha individuato nella Mongolia interna un’area da attrezzare con infrastrutture digitali e dorsali in fibra così da attrarre investimenti, anche internazionali, in Centri di Elaborazione Dati con il risultato che oggi quella zona semi-desertica ospita alcune delle strutture più imponenti e importanti al mondo.
Si tratta, certamente, di un aspetto da non sottovalutare perché il possesso dei dati generati nei data center garantisce potere contrattuale nelle concertazioni internazionali e potrebbe, nel medio termine, modificare i precari equilibri geo-politici a favore di quegli Stati che saranno riusciti a difendere il patrimonio informativo dei propri cittadini.
Viaggio all’interno del data center di Google
Un ultimo aspetto sul quale si sta concentrando l’attenzione dei principali player internazionali è quello, inizialmente sottovalutato per via della natura apparentemente eterea dell’informatica, della sostenibilità ambientale e dell’utilizzo razionale delle risorse: in analogia con quanto accadde nella prima rivoluzione industriale con le fabbriche, anche oggi è necessario riflettere sugli impatti a lungo termine di questi colossali quartieri generali che devono iniziare (e lo stanno facendo, grazie a un immenso sforzo collettivo) a utilizzare energie rinnovabili senza erodere ulteriormente le già scarse fonti tradizionali.