L’avvento delle soluzioni e delle proposte commerciali web-based sta, di fatto, conducendo a una vera e propria traslazione delle risorse materiali finalizzate all’elaborazione informatica, allo storage e a gran parte delle caratteristiche “fisiche” di un computer dai dispositivi periferici, utilizzati dagli utenti finali, a postazioni remote, gestite da terze parti e spesso del tutto ignote agli utilizzatori, ai clienti e persino ai rivenditori di soluzioni software. In sostanza, la tanto decantata dematerializzazione e virtualizzazione delle soluzioni informatiche può essere più correttamente rappresentata come un vero e proprio “passaggio di consegne”, nel quale la maggior parte degli oneri, e conseguentemente delle criticità e dell’importanza strategica, connessi alla corretta esecuzione di programmi e sistemi informativi sia gradualmente spostata dai nostri dispositivi “client” verso grandi server allocati in Data center sempre più articolati, complessi e organizzati.
Si tratta di una transizione imponente quanto silenziosa che sfugge all’attenzione generale ma apre nuovi temi di riflessione e allo stesso tempo richiede agli addetti ai lavori considerazioni e approfondimenti su scenari fino a poco tempo fa quasi del tutto impensabili se non proprio fantascientifici.
Un caso emblematico, in tal senso, è quello delle smart-tv con riconoscimento vocale che, non avendo a bordo processori in grado di elaborare i flussi analogici in ingresso, devono necessariamente inviare i comandi a “sale operative” remote nelle quali sarà effettuata la decodifica e la trasformazione in un input effettivamente utilizzabile dal televisore. Il potenziamento delle funzionalità di un TV attraverso l’utilizzo di servizi remoti comporta quale inscindibile contropartita la nascita di nuovi rischi e criticità connesse alla privacy, alla protezione dei dati personali, al cyber-crime, etc.
Analoghe considerazioni potrebbero essere riproposte per i telefoni, i tablet e tutti quei dispositivi “smart” che, per poter funzionare correttamente e fornire informazioni e risposte in tempo utile, devono necessariamente fare affidamento su servizi forniti da grandi server e computer allocati in postazioni fisiche potenzialmente disseminati in tutto il mondo.
Alla luce di quanto è stato finora descritto, è immediatamente comprensibile come i data center rappresentino, oggi, un elemento di fondamentale importanza che necessita di adeguate strutture organizzative, di risorse umane, tecnologiche e finanziarie oltre che di adeguate e sempre maggiori misure di sicurezza a tutela dello sterminato patrimonio informativo acquisito, elaborato e memorizzato senza apparente soluzione di continuità.
I centri di elaborazione dati, pertanto, sono destinati a giocare un ruolo comunque centrale e di primaria importanza nel contesto dell’ICT e, anche se probabilmente dovranno continuare a evolversi e trasformarsi, continueranno a essere il cuore pulsante ma anche il cervello elettronico di tutti i sistemi informativi sparsi per il globo terrestre.
Data center, definizione e modelli
Il punto di partenza per ottenere un quadro quanto più completo e analitico dei data center è sicuramente costituito dalla loro definizione che, a ulteriore dimostrazione dell’importanza dell’argomento, è da anni al centro di ampi dibattiti e confronti all’interno della comunità scientifica internazionale.
Se, infatti, la definizione classica descrive un centro elaborazione dati come “l’unità organizzativa che coordina e mantiene le apparecchiature ed i sistemi di gestione dei dati oppure l’infrastruttura informatica a servizio di una o più aziende”, negli ultimi anni sta prendendo sempre più piede la visione di un data center quale complessa e articolata organizzazione finalizzata all’erogazione di servizi digitali, composta da elementi eterogenei di fondamentale importanza quali le strutture fisiche, le risorse umane, i dispositivi di elaborazione, gli apparati di rete, i sistemi di supporto, le linee di telecomunicazione e l’insieme di soluzioni tecniche, procedurali e organizzative poste a presidio della sicurezza, con particolare riguardo all’integrità, riservatezza e disponibilità delle informazioni.
In linea con la rilevanza strategica acquisita negli ultimi anni, pertanto, i data center sono generalmente considerati, dal punto di vista organizzativo, come “super-entità” o “unità complesse”, dirette da manager e dirigenti con profili non solo informatici ma anche e soprattutto amministrativi e aziendali, dotate di elevata autonomia decisionale, di proprie strategie operative oltre che di budget, capacità di spesa e previsionali del tutto indipendenti.
In tale contesto, la principale tendenza a livello planetario è quella di affidarsi a pochi centri altamente specializzati, in grado di supportare le più svariate necessità aziendali, di garantire eccellenti livelli di operatività e allo stesso tempo capaci di liberare le aziende dalla necessità di gestire in casa i propri data center e canalizzare gli sforzi e gli obiettivi verso le funzioni di “core business”.
Sempre più aziende hanno iniziato a pianificare e attuare una migrazione da data center di proprietà, implementati in gran parte tra la fine del ‘900 e l’inizio del nuovo millennio, verso soluzioni di “colocation” o “cloud” di nuovissima generazione, che garantiscono, tra l’altro, indubbi benefici connessi ad alti livelli di flessibilità, scalabilità e manutenibilità.
Si tratta, come si può facilmente immaginare, di un processo lungo e articolato all’interno del quale le organizzazioni devono superare problemi di natura economica (i CED dedicati sono il frutto di investimenti anche ingenti che si sono susseguiti nel tempo), organizzativa (molte imprese si sono evolute anche in base alla strutturata delle proprie infrastrutture informatiche, implementate su base “addizionale” più che su Piani Strategici) e “culturale” (è ancora forte, seppure sempre meno motivata, la percezione di un legame diretto tra “possesso fisico” dei propri dati e una governance IT efficiente e ben strutturata).
Un dato estremamente interessante, in tal senso, emerge da un sondaggio condotto da Digital360 nel 2017 in collaborazione con Dimension Data su un campione di 280 aziende italiane di medie dimensioni (superiori a 250 dipendenti), operanti in vari settori industriali che spaziano dal “manufacturing” (65%) al “finance” (10%) passando dal “retail” (20%) al “chimico-farmaceutico” (4%): se, infatti, da un lato la stragrande maggioranza (pari all’83%) ha dichiarato di aver ancora un data center “on premise”, dall’altro ben il 70% delle imprese ha dimostrato interesse verso soluzioni cloud pur sottolineando di non sentirsi ancora pienamente pronto, per varie motivazioni, per il “grande salto”.
I data center in italia
Provando a contestualizzare l’argomento all’interno dei confini del nostro Paese, è possibile innanzitutto affermare come in Italia siano presenti, secondo le rilevazioni di uno dei più accreditati portali tematici a livello mondiale, Datacentermap, 75 data center in grado di ospitare servizi di più aziende, secondo la citata formula del “colocation”, posizionati in 35 zone differenti, soprattutto nel Centro Nord della penisola.
Si tratta di un numero estremamente elevato, che pone l’Italia all’undicesimo posto nel mondo, a poca distanza dalla Cina (che ne annovera 79) e al quarto in Europa, dietro Germania (209), Francia (151) e Paesi Bassi (107). Per comprendere meglio il fenomeno e soprattutto i ritmi con i quali si stanno diffondendo i data center sul territorio italiano, basti pensare che nel 2016 si contavano 55 strutture, salite a 69 nel 2018 e destinate a crescere ulteriormente nei prossimi anni grazie a nuovi investimenti anche di provenienza internazionale.
Nel settore privato, di grande impatto è, in particolare, il “Global Cloud Data Center” di Aruba che, oltre a essere considerato il CED più grande d’Italia, grazie ai suoi 200.000 metri quadri residenti interamente nel comune di Ponte San Pietro, rappresenta un esempio assolutamente virtuoso (e citato spesso in studi scientifici) nel panorama internazionale grazie alla capacità di recuperare l’energia necessaria per la propria alimentazione dall’acqua del fiume Brembo e da migliaia di pannelli fotovoltaici che ne rivestono le pareti.
Analizzando, invece, la distribuzione geografica dei data center, emerge come il polo a più ampia concentrazione sia quello di Milano nel quale sono allocati ben 23 data center (pari a circa il 30% del totale italiano), seguito, seppur a grande distanza, da Roma dove, invece, sono presenti 7 strutture gestite da 6 differenti service provider.
Chiude il podio virtuale l’hinterland della città di Torino con 4 data center mentre si conferma un’area fortemente vocata alle grandi infrastrutture informatiche quella di Arezzo dove sono presenti in pochi chilometri quadrati tre centri di elaborazione dati.
Come anticipato in precedenza, risulta al momento poco rappresentato il Sud Italia, dove spicca la Sicilia con 5 data center distribuiti tra Palermo (3) e Catania (5).
I CED delle pubbliche amministrazioni italiane
Passando al campo delle pubbliche amministrazioni è importante rilevare come l’Agenzia per l’Italia Digitale abbia avviato, nel solco del Piano Triennale per l’Informatica nella PA, un articolato percorso finalizzato alla valorizzazione e razionalizzazione dei data center delle pubbliche amministrazioni, che ancora oggi si presentano in una conformazione fortemente frastagliata e disomogenea, con lo scopo di esaltare le soluzioni migliori dislocate sul territorio nazionale e creare una vera e propria rete su cui poggiare le fondamenta dei nuovi servizi digitali.
In particolare, l’obiettivo finale è quello di creare, attraverso una serie di passaggi intermedi finalizzati a garantire una transizione graduale, controllata e in grado di preservare la continuità dei servizi essenziali di tutti gli Enti pubblici, dei veri e propri “quartieri generali” informatici posizionati in diverse aree geografiche italiane, che possano assicurare elevati standard di qualità, efficienza e sicurezza a tutta la pubblica amministrazione e, di conseguenza, all’intera popolazione che deve fruire dei servizi erogati dalla P.A..
Tali centri di eccellenza, che adotteranno la denominazione di “Poli Strategici Nazionali”, costituiranno la piattaforma informatica sulla quale sarà costruito il grande sistema della cosiddetta “nuvola pubblica”, ossia quel “Cloud Pa” che rappresenta un altro punto essenziale della strategia di modernizzazione della pubblica amministrazione e che è stato oggetto di importanti interventi nel corso dell’ultimo anno.
All’interno del quadro appena descritto, l’Agenzia per l’Italia Digitale ha effettuato un censimento al termine del quale ha individuato 35 amministrazioni potenzialmente in grado di divenire Poli Strategici Nazionali in quanto in possesso di infrastrutture IT (centralizzate o distribuite), ad alta disponibilità, di piena proprietà pubblica, capaci di erogare ad altri enti, in maniera continuativa e sistematica, servizi infrastrutturali on-demand, funzionalità di disaster recovery e business continuity, di gestione della sicurezza IT oltre che assistenza ai fruitori dei servizi erogati.
Secondo i risultati della rilevazione sono, invece, 27 gli enti pubblici inseriti nel cosiddetto “Gruppo A” perché dotati di strutture di qualità che non possono essere elette Polo strategico nazionale anche a causa di carenze strutturali o organizzative considerate minori e comunque accettabili nel breve periodo. I CED di tali amministrazioni potranno continuare ad operare ma non saranno consentiti investimenti per l’ampliamento o l’evoluzione dell’architettura hardware. Al fine di garantire la continuità dei servizi e implementare un efficace Piano di disaster recovery sarà possibile, comunque, per gli enti del “Gruppo A”, avvalersi delle funzionalità disponibili con il Contratto quadro “SPC Cloud lotto 1” o messe a disposizione (nel prossimo futuro) dai Poli Strategici Nazionali.
Finiscono, infine, nell’ultima classe, ossia nel “Gruppo B”, ben 1190 amministrazioni che utilizzano data center non in possesso di requisiti minimi di affidabilità e sicurezza dal punto di vista infrastrutturale e organizzativo o non in grado di garantire la continuità dei servizi. Tali infrastrutture dovranno essere rapidamente consolidate verso il cloud o, a regime, verso i Poli Strategici Nazionali.
L’Agenzia per l’Italia digitale ha, inoltre, elaborato una articolata road-map operativa che guiderà, attraverso una serie di passaggi intermedi, la delicata fase di migrazione dalla situazione attuale, caratterizzata da un elevato grado di disarmonia, verso la nuova configurazione Psn-centrica, nella quale tutti i servizi pubblici digitali saranno erogati attraverso i nuovi centri di elaborazione dati.
In particolare, il gruppo di lavoro costituito dall’AgID ha redatto e diffuso una dettagliata check-list contenente i 23 punti di controllo, raggruppati in 4 macro-classi (che comprendono aspetti organizzativi e gestionali, infrastrutturali, tecnologici ed economico-finanziari) e 10 sotto-insiemi di secondo livello, che dovranno incanalare le attività di valutazione dei data center e determineranno, conseguentemente, la fisionomia della ‘graduatoria’ preliminare dei Ced pubblici italiani.
La griglia, invero, non solo elenca tutti i requisiti che devono essere imprescindibilmente soddisfatti dai data center che intendono accreditarsi quali Psn ma dettaglia anche le condizioni minime richieste per l’ingresso nel gruppo delle infrastrutture che, nel breve periodo, potranno continuare ad operare in attesa della definitiva attivazione del nuovo modello strategico ed operativo.
Partendo dalla lista dei 35 potenziali Psn, in particolare, AgID avvierà una procedura di valutazione estremamente dettagliata ed articolata avvalendosi di uno o più specifici Gruppi di verifica, composti da un numero variabile di membri, anche esterni, in possesso di diverse competenze specialistiche che, in ossequio a quanto previsto dalla norma internazionale UNI EN ISO 19011:2018, effettuerà verifiche in loco finalizzate a comprendere i livelli di maturità dei sistemi di gestione e l’aderenza delle infrastrutture ai requisiti previsti dagli standard di riferimento.
Architettura dei data center
Una delle caratteristiche maggiormente distintive di un data center è certamente quella connessa alla sua architettura generale, la cui implementazione travalica le tematiche prettamente specialistiche, informatiche, digitali o elettroniche per abbracciare elementi di natura fisica, tecnica, elettronica, procedurale e organizzativa.
Dal punto di vista della sicurezza, ad esempio è assolutamente fondamentale che l’accesso ad un centro di elaborazione sia adeguatamente controllato e regolato attraverso specifiche contromisure quali la creazione di barriere materiali (si pensi, ad esempio, ai tornelli d’ingresso), la previsione di meccanismi di riconoscimento personale (che possono spaziare dalle canoniche verifiche documentali fino alla lettura di dati biometrici quali impronte digitali, bubo oculare, volto, ec), l’organizzazione di sistemi autorizzativi basati su ruoli ed infine attraverso la revisione periodica di tutti i presidi messi in opera e dei permessi attribuiti nel corso del tempo.
Oltre alla necessità di regolamentare le modalità di accesso alla struttura e ai dati, però, risultano di estrema importanza le procedure per la gestione dei servizi IT, per la formalizzazione della Business Continuity, la gestione complessiva della governance delle informazioni, che possono essere modellate ed in parte certificate attraverso l’aderenza a specifici standard internazionale, solitamente afferenti alla famiglia delle norme ISO.
In tale contesto, particolarmente interessanti ed utili a focalizzare i vincoli e le opportunità connesse all’architettura di un data center, soprattutto in virtù del complesso lavoro di ricognizione ed analisi preliminare condotto da un team di specialisti del settore, sono i punti di controllo contenuti nella delibera num. 1 del 2019 dell’AGID nella quale, come anticipato in precedenza, si specifica come un CED per poter ambire a divenire Polo Strategico Nazionale debba soddisfare alcuni stringenti criteri, tra i quali, oltre a quelli già citati, sono degni di menzione:
- la previsione di politiche organizzative che assicurino turni operativi di controllo 24 ore al giorno per 7 giorni alla settimane per 365 giorni all’anno.
- l’indice di disponibilità annuale del data center deve essere almeno pari al 99,98 % (inteso come il rapporto tra le ore totali di servizio e le ore di disponibilità effettiva) al netto dei fermi programmati e almeno pari al 99,6% comprendendo i fermi programmati.
- il data center deve essere stato progettato e realizzato secondo standard di riferimento infrastrutturali, quali ad esempio ANSI/BICSI 002, TIA-942, EN 50600, Uptime Institute Tier Certification o analoghi.
- l’organizzazione che gestisce il data center deve avere adottato formalmente procedure per la gestione delle emissioni dei gas prodotti (es. ISO 14064), per la gestione dell’energia (es. ISO 50001), o per la gestione ambientale (es. ISO 14001)
- nei locali ospitanti i data center devono essere presenti idonei pavimenti flottanti qualora la distribuzione dell’alimentazione elettrica e del cablaggio non avvenga per via aerea
- i data center devono essere provvisti di impianto di segnalazione antincendio e devono essere in possesso di certificati di agibilità ed Anti-incendio (rilasciato dai vigili del fuoco) in corso di validità.
La classificazione dei data center
Considerata l’importanza strategica ed organizzativa dei data center, dal cui corretto funzionamento dipende in maniera imprescindibile anche il successo dell’intera corporate governance e il raggiungimento degli obiettivi di “core business”, diventa fondamentale poter acquisire un modello di misurazione e valutazione delle performance di ogni struttura, con particolare riferimento alla capacità di erogare i servizi con continuità e garantire l’integrità, la riservatezza e la disponibilità dei dati a vario titolo trattati.
In tale contesto, uno dei più popolari, affidabili e prestigiosi punti di riferimento è costituito dall’organizzazione statunitense Uptime Institute, che ha implementato il sistema di certificazione maggiormente utilizzato in tutto il mondo basato sul concetto dei cosiddetti Tier.
In estrema sintesi, il sistema di classificazione suddivide i data center in 4 macro-classi:
- Tier I: un data center Tier 1 è dotato di un unico percorso per alimentazione e raffreddamento; i componenti di backup o ridondanti sono pochissimi o assenti. L’uptime previsto è del 99,671% (28,8 ore di downtime annuale).
- Tier II: un data center Tier 2 è dotato di un unico percorso per alimentazione e raffreddamento e di alcuni componenti ridondanti e di backup. L’uptime previsto è del 99,741% (22 ore di downtime annuale).
- Tier III: un data center Tier 3 è dotato di diversi percorsi per alimentazione e raffreddamento e di più sistemi di aggiornamento e manutenzione che non richiedono di portarlo offline. L’uptime previsto è del 99,982% (1,6 ore di downtime annuale).
- Tier IV: un data center Tier 4 è realizzato in modo tale da essere completamente fault-tolerant e prevedere ridondanza per ogni componente. L’uptime previsto è del 99,995% (26,3 minuti di downtime annuale).
Partendo, inoltre, dalla considerazione che un data center non possa essere, per sua definizione, un ambiente statico ma al contrario costituisca un ecosistema in costante mutamento nel quale devono convivere attrezzature, sistemi, procedure, capacità, personale, etc, Uptime ha introdotto la certificazione “M&O Stamp of Approval” finalizzata ad apporre il “bollino di qualità” ad aspetti di grande importanza quali la gestione del rischio e l’organizzazione complessiva delle operazioni di gestione e conduzione di un data center.
L’obiettivo di fondo della certificazione è quello di ottenere una visione olistica del dataceter nel suo complesso, partendo dalle pratiche di gestione del personale fino a giungere all’organizzazione delle manutenzioni, così da garantire una concreta diminuzione del numero e della gravità degli incidenti.
In particolare, secondo Uptime Insitute ogni organizzazione chiamata a porre un così alto affidamento su una complessa interconnessione di risorse digitali per il proprio sostentamento aziendale che diventa fondamentale anche per gli azionisti e gli stakeholders ottenere precise garanzie sulla circostanza che gli ingenti investimenti in infrastrutture siano ben definiti, pienamente supportati e soprattutto basati su architetture certificate da terze parti.
Per comprendere quanto il modello proposto dall’organizzazione americana sia diffuso e radicato in tutto il mondo, basti pensare che sono oltre 1.600 le certificazioni rilasciate in oltre 95 paesi in tutto il mondo e che sempre più spesso i capitolati di gara di appalti pubblici richiedono, a garanzia della qualità delle infrastrutture digitali dei concorrenti, il possesso di un tier minimo per l’accesso alla competizione.
Secondo quanto riportato sul sito ufficiale del certificatore, in Italia sono presenti 15 data center certificati come tier IV ed altrettanti qualificati come tier III mentre 1 solo centro di elaborazione dati (situato a Udine e di proprietà della Inasset) ha ricevuto la certificazione M&O Stamp Of Approval.
Accanto alle certificazioni rilasciate dall’Uptime Institute, particolare importanza nel corso del tempo hanno riscosso anche quelle di competenza dalla TIA (Telecommunication Industry Association), che è un’associazione accreditata dall’ANSI (American National Standards Institute) e si pone l’obiettivo di sviluppare volontariamente standard basati sul consenso delle industrie per una grande varietà di prodotti ICT e attualmente incorpora più di 400 membri.
Nelle proprie “Linee Guida per la razionalizzazione della infrastruttura digitale della Pubblica Amministrazione”, l’Agid afferma di far riferimento alla TIA-942 partendo dalla considerazione che, soprattutto nell’ambito della pubblica amministrazione italiana, “spesso si assiste a infrastrutture dove è praticamente impossibile assicurare la realizzazione di un ambiente centralizzato, idoneo e performante, con il risultato di avere strutture mal dimensionate con gravi mancanze sotto il profilo della sicurezza e dell’affidabilità e inefficienze nella erogazione dei servizi”.
Nella TIA-942, in particolare, sono presenti indicazioni sulla definizione degli spazi e il design dei CED, sulla realizzazione dei cablaggi, sulle condizioni ambientali, ma è anche riproposta una classificazione dei CED secondo dei livelli che sono spesso chiamati, in maniera impropria, TIER (tale terminologia è, invero, utilizzabile solo dalla Uptime System).
La TIA-942 focalizza anche la propria attenzione su aspetti tecnici quali la corretta circolazione dell’aria, con particolare attenzione alla previsione di una adeguata concentrazione degli apparati, suggerisce la predisposizione degli armadi in modo da assicurare la creazione di corridoi caldi e freddi, facilitando l’espulsione dell’aria calda dal retro delle apparecchiature.
Tra le altre tematiche affrontate da tale certificazione rientrano anche gli spazi e il design del data center, l’infrastruttura di cablaggio, gli apparati antincendio, il monitoraggio dei livelli di umidità, la predisposizione delle temperature operative e l’implementazione delle architetture di collegamento.
Vista la grande diffusione e le differenti declinazioni dei data center in tutto il mondo, anche in considerazione delle diverse culture e sensibilità presenti in diverse zone geografiche, sono state sviluppate, nel corso del tempo, ulteriori metodologie e standard inerenti la classificazione dei Data Center che in parte si sovrappongono alle aree di interesse dei TIER e della TIA-942 e, in taluni casi, propongono modelli anche sostanzialmente differenti per la misurazione e classificazione dei CED.
Premettendo che la loro trattazione esaustiva si colloca al di fuori dell’ambito del presente articolo, si vuole comunque richiamare, per la crescente popolarità che sta acquisendo, il “BICSI 002”, che racchiude un insieme di standard e best practice definite dalla “Building Industry Consulting Service International” (BICSI), altra organizzazione accreditata presso l’ANSI, che sono generalmente utilizzate in maniera complementare ad altre norme.
In particolare, BICSI aggiorna periodicamente il volume “Data Center Design and Implementation Best Practices”, elaborato da professionisti del settore provenienti da diverse discipline, all’interno del quale sono descritti tutti i principali sistemi presenti all’interno di un data center.
Lo standard di BICSI definisce, infine, cinque livelli di “Facility Class” a differenza dei quattro livelli utilizzati da TIA-942 e dall’Uptime Institute.
Conclusioni
I data center, intesi nell’ampia accezione di strutture fisiche, organizzative, tecniche e digitali a supporto dei sistemi informativi, rappresentano certamente uno dei pilastri fondamentali, seppur spesso invisibili e sconosciuti per la maggior parte degli utenti finali, sui quali si basa la rivoluzione informatica che da qualche decennio sta drasticamente modificando il modo di vivere, lavorare e socializzare degli esseri umani.
Dietro ogni software, applicazione mobile, sito web o piattaforma internet, infatti, risiedono grandi centri di elaborazione dati in grado di acquisire, inviare e trasformare informazioni in tempi sempre più rapidi e con una precisione sempre maggiore.
La crescente diffusione di strumenti dotati di micro-processori, inoltre, sta gradualmente spostando verso postazioni remote l’onere di effettuare gran parte delle elaborazioni più complesse, critiche e sensibili, generando, di fatto, nuovi rischi ed ulteriori tematiche sulle quali riflettere anche a presidio dell’integrità, della riservatezza e della disponibilità dei dati scambiati su reti pubbliche e comunque non perfettamente protette da attacchi esterni.
Un ulteriore elemento di discontinuità rispetto anche al recentissimo passato è rappresentato dal cosiddetto Edge computing che, in sintesi, ambisce a portare quanto più possibile vicino ai “client” sia i dati che le capacità elaborative: si tratta di una modalità diversa, a tratti complementare ma non certamente sostitutiva dell’attuale configurazione “CED-centrica”; il preannunciato successo dell’edge computing, secondo alcune accreditate previsioni, dovrebbe portare alla nascita di nuove tipologie di data center, di dimensioni in alcuni casi anche estremamente ridotte che, comunque, continueranno a far riferimento, per alcune funzioni specifiche (quali l’archivio storico, le super-elaborazioni, le analisi di business-intelligence) a CED remoti, funzionanti più o meno sull’attuale modello del cloud.
Diventa, pertanto, sempre più importante acquisire competenze e risorse per progettare, implementare, manutenere e monitorare in maniera organica e sistematica i data center secondo metodologie e tecniche in grado di assicurare la qualità e l’efficienza dell’intera infrastruttura, dal cui corretto funzionamento possono dipendere, in taluni casi, anche l’incolumità fisica e la salute dei consumatori e degli utenti finali.
Non devono, inoltre, essere assolutamente sottovalutati i cosiddetti vincoli “non funzionali”, quali ad esempio quelli sulla sicurezza e sulla resilienza, che nel caso della gestione dei data center assumono un ruolo ancora più importante rispetto ad altri settori dell’“information technology”: per la sua priorità strategica, infatti, un data center deve essere pensato, costruito e condotto per funzionare in maniera ininterrotta, senza soluzioni di continuità, anche a fronte di eventi anomali di elevata entità. Un data center, in conclusione, deve essere concepito fin dal principio come un ecosistema a “prova di disastro”, nel quale sono presenti contromisure che garantiscono la prosecuzione delle attività vitali (business continuity) e il ripristino immediato (disaster recovery) in qualsiasi situazione e a fronte di qualsiasi catastrofe.