Che cos’è un data center? È la sala macchine (anche sala Ced – Centro elaborazione dati) che ospita server, storage, gruppi di continuità e tutte le apparecchiature che consentono di governare i processi, le comunicazioni così come i servizi che supportano qualsiasi attività aziendale. In estrema sintesi, sono i data center a garantire il funzionamento 24 ore al giorno, tutti i giorni dell’anno, di qualsiasi sistema informativo.
Il data center oggi rappresenta il cuore pulsante del business. Esso fornisce anche tutta la consulenza tecnico-scientifica alle diverse strutture in materia di digitalizzazione dei processi, elaborazione elettronica dei dati, definizione delle reti di calcolo, progettazione e/o implementazione dei sistemi informativi. E include tutte le applicazioni di supporto oltre all’integrazione e all’interfacciamento con i sistemi esterni all’organizzazione.
Cos’è e a cosa serve un data center, una premessa
In questa guida dettagliata e completa ai data center, vedremo in maniera approfondita, cos’è e come funziona un data center, le classificazioni dei data center, la sicurezza, i consumi ed altri approfondimenti sul data center.
Ma prima di entrare nel dettaglio di questi aspetti di base, ricordiamo che oggi, quando si parla di data center spesso non si pensa più a un luogo fisico perché il data center è ormai per definizione ibrido. Sempre più spesso esso è composto da: ambienti in house, cloud privati e cloud pubblici forniti da differenti provider. Per approfondire questa evoluzione, consigliamo a lettura dell’articolo Il nuovo data center che abilita il business.
Data center in house
L’efficienza del business passa dal bilanciamento dei data center, che rimane sempre e in ogni caso il perno tecnologico dello sviluppo e della crescita di un’azienda. Uno degli aspetti importanti di un CED è la capacità di movimentare un gran numero di processi e di dati.
Rispetto al passato, la progressiva digitalizzazione in ambito pubblico e privato ha portato l’ordine dei ragionamenti a spostarsi da una gestione misurata per terabytes a una misurata in zetabytes. Da qui ai prossimi 5 anni saranno generati 35 zetabytes di contenuti digitali (Fonte: Osservatori Digital Innovation). E questo porta le aziende a fare scelte sempre più attente alla scalabilità e alla flessibilità delle risorse presenti nel data center ma anche ai modelli di riferimento.
Lo sviluppo informatico ha portato a un potenziamento del parco installato all’interno dei data center. Per supportare la crescente domanda di sistemi e soluzioni, infatti, le sale macchine si sono letteralmente popolate di server di diversa capienza e di diversa configurazione a seconda delle attività presidiate. Per questo motivo un sinonimo di data center è server farm. Un data center, a seconda delle necessità aziendali, può occupare un armadio (rack server), pochi metri quadrati o arrivare addirittura a occupare un’intero stabile.
Come funziona un data center
Strutture altamente specializzate, organizzate per consentirne la massima efficienza funzionale a dispositivi, sistemi e servizi, sono i data center ad assicurare la business continuity mondiale.
Come funzionano? Grazie a sistemi di connettività stabili e ridondanti, ovvero attraverso una configurazione duplicata che garantisce la continuità operativa nel caso di guasti uno o più sistemi. Questo per garantire sempre e comunque la massima funzionalità. È in questo modo che i data center consentono di rendere accessibili i dati elaborati dalle unità computazionali. E rendono disponibili le informazioni conservate presso i sistemi di storage ospitati nei server.
Tutta l’infrastruttura di un data center è incentrata su reti che implementano il protocollo IP e collegano tra loro macchine e applicazioni. Ogni server farm ospita differenti set di router (ovvero dei dispositivi di rete che si occupano di instradare i dati, suddivisi in pacchetti, fra sottoreti diverse). Ospita inoltre switch progettati e configurati per veicolare il traffico dati in modo bidirezionale fra i server e il resto del mondo.
All’interno di un data center, oltre ai server, si trovano vari sistemi di archiviazione dei dati (storage), diversi sistemi informatici atti al monitoraggio, al controllo e alla gestione di macchine, applicazioni e, infrastrutture di telecomunicazione oltre a tutti gli accessori ad essi collegati. Per garantire l’operatività e la piena efficienza delle macchine, oltre a dei gruppi di continuità (UPS centers) i data center prevedono impianti di climatizzazione e di controllo ambientale molto particolari, impianti antincendio e sistemi di sicurezza avanzati.
Guida alla progettazione data center: standard di riferimento e classificazione (TIER I,II,III,IV)
La progettazione di un data center è estremamente complessa. Costruire un ambiente centralizzato, idoneo e performante, dotato di strutture ben dimensionate e con livelli elevati di sicurezza, affidabilità ed efficienza nella erogazione dei servizi non è facile. Per questo motivo è stato creato uno standard di riferimento.
Le best practice, ovvero le linee guida per la realizzazione di un data center seguono lo standard TIA-942. Nella TIA-942 sono presenti indicazioni sulla definizione degli spazi e il design dei CED, sulla realizzazione dei cablaggi, sulle condizioni ambientali.
Le linee guida includono anche una classificazione dei data center secondo 4 livelli, detti TIER (nella traduzione TIER si intende il sistema per identificare la struttura di un data center). Il primo è quello base, in cui la continuità operativa ha delta temporali di interruzione pari a quasi 30 ore l’anno. Sembra un numero ridotto, ma non è così. Si provi a pensare cosa significa per un supermercato, un ospedale, una banca, una fabbrica o un aereoporto avere un’indisponibilità anche solo di due o tre ore dei servizi. È chiaro quindi il motivo per cui, a seconda del core business, bisogna puntare a livelli più elevati.
TIER I
Continuità operativa garantita al 99,671% (significa fermo del data center per 28,8 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER I?
- Suscettibilità a interruzioni legate ad attività pianificate e non pianificate
- Mancanza di ridondanze e con singolo sistema di alimentazione e di raffreddamento
- Presenza o meno di UPS, generatori e pavimento flottante
- Totale spegnimento durante le manutenzioni preventive
TIER II
Continuità operativa garantita al 99,741% (significa fermo del data center per 22 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER II?
- Meno suscettibilità a interruzioni a causa di attività pianificate e non pianificate
- Componenti ridondati e con singolo sistema di alimentazione e di raffreddamento
- Presenza di UPS, generatori e pavimento flottante
- Totale spegnimento durante le manutenzioni su alimentazione e altre parti dell’infrastruttura
TIER III
Continuità operativa garantita al 99,982% (significa fermo del data center per 1,6 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER III?
- Possibilità di effettuare manutenzioni pianificate senza interruzione, ma suscettibilità a interruzioni a causa di attività non pianificate
- Componenti ridondati e collegamenti multipli per alimentazione e raffreddamento
- Presenza di UPS, generatori e pavimento flottante
- Facoltativo lo spegnimento totale durante le manutenzioni (prevista deviazione su altri collegamenti per alimentazione e infrastruttura)
TIER IV
Continuità operativa garantita al 99,995% (significa fermo del data center per 0,4 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER IV?
- Possibilità di effettuare manutenzioni pianificate e senza impatti negativi sulla gestione della funzionalità
- Componenti ridondati e collegamenti multipli contemporaneamente attivi per alimentazione e raffreddamento
- Disponibilità di UPS, generatori e pavimento flottante
- Facoltativo lo spegnimento totale durante le manutenzioni (prevista deviazione su altri collegamenti per alimentazione e infrastruttura)
Come si mette in sicurezza un data center, la normativa
Uno degli aspetti cardine di un data center è la sua sicurezza fisica e logica. Da un lato è necessario preservare la continuità elaborativa delle unità ospitate nel data center, dall’altro è fondamentale proteggere i dati e le applicazioni che risiedono nei sistemi di storage e vengono elaborati dai sistemi informativi.
Fondamentale per la sicurezza nella progettazione di un data center è la messa a terra: questa categoria comprende sia la rete di collegamento che i sistemi di messa a terra utili per proteggere le apparecchiature dei CED da scariche elettrostatiche, sovracorrenti e fulmini. Oltre a presidiare le condizioni ambientali, preservando i dispositivi e le reti da alluvioni, incendi, catastrofi naturali la sicurezza di un data center dipende anche da errori umani.
Secondo i dati dell’Uptime Institute, il 40% delle interruzioni di servizio dei data center è causato da errori umani: i sistemi, infatti, talvolta sono così complessi da riparare che i tecnici e il personale di manutenzione finiscono spesso per commettere degli sbagli anche solo scollegando una presa elettrica durante l’azionamento o la manutenzione di una macchina. Un altro punto critico è il cybercrime: le minacce ad opera di malintenzionati in rete crescono in maniera esponenziale ed è molto difficile impostare un controllo su un perimetro fatto di sistemi fisici e virtuali. Per gli analisti di Gartner, oltre l’80% delle imprese negli ultimi tre anni non è riuscita a definire politiche di sicurezza dei dati adeguate.
Data center e privacy dei dati
La criticità nella gestione dei tradizionali silos informativi è legata ai problemi crescenti in termini di compliance normativa che includono rigorosi requisiti costruttivi. Oggi si è più attenti ai temi della sostenibilità ambientale e della riduzione dei consumi, non solo. Si focalizza l’attenzione sulla sicurezza in relazione alla gestione della Privacy e alla salvaguardia del patrimonio ICT dagli attacchi della cybercriminalità, alle distrazioni dei dipendenti, mai sufficientemente addestrati alle best pratice della protezione e della tutela dei dati e delle risorse aziendali.
A questo proposito il testo del Garante spiega come debbano essere presidiati “apparati e reti di comunicazione elettronica, inclusi i sistemi di trasmissione, le apparecchiature di commutazione o di instradamento, gli elementi di rete non attivi che consentono di trasmettere segnali via cavo, via radio, a mezzo di fibre ottiche o con altri mezzi elettromagnetici, comprese le reti satellitari, le reti terrestri mobili e fisse a commutazione di circuito e a commutazione di pacchetto, (Internet inclusa), i sistemi per il trasporto della corrente elettrica, nella misura in cui siano utilizzati per trasmettere i segnali” (Decreto legislativo 30 giugno 2003, n. 196 (Testo Consolidato Vigente) CODICE IN MATERIA DI PROTEZIONE DEI DATI PERSONALI – ART. 4 – 2c).
Non a caso i migliori data center sono vere e proprie fortezze blindate. Spesso sono sorvegliati da guardie armate e l’accesso è consentito solo alle persone autorizzate. Tale accesso si ha attraverso sistemi di controllo regolati mediante soluzioni di identificazione univoca come badge magnetici, card RFID, soluzioni biometriche.
Sicurezza fisica e sorveglianza
Un altro criterio di sicurezza e la compartimentazione dei data center ai dipendenti, in modo da garantire l’accesso solo a determinate sale e zone del data center. I rack dove sono ospitate le macchine spesso sono chiuse a chiave con serrature particolari, proprio per potenziare la salvaguardia dei sistemi.
La sorveglianza prevede l’utilizzo di videocamere e impianti di allarme associati al motion detection. Inoltre si fa uso di una sensoristica avanzata per il rilevamento di fumi, effrazioni e qualsiasi altra anomalia. A questi sensori sono collegati dei sistemi di chiusura porte antincendio automatizzate e meccanismi di controllo che interrompono l’alimentazione dei dispositivi e dei gruppi elettrogeni. E questo per evitare che eventuali fiamme possano alimentarsi ulteriormente.
I sensori regolano poi l’intervento del sistema antincendio vero e proprio che interviene sulle fiamme con gas inerte (un composto atossico a base di acqua e azoto). Sostanze cioè che non lasciano residui e permettono l’intervento senza pericolo nei locali da parte del personale autorizzato.
Sicurezza logica
Per quanto riguarda la sicurezza logica dei dati, i data center implementano firewall, sistemi antintrusione (IDS) per sorvegliare i server, sistemi di monitoraggio permanente dei servizi di rete e dei sistemi per il controllo degli accessi digitali e la prevenzione degli attacchi. Un altro asset della governance è la definizione di politiche di Disaster Recovery. Queste ultime prevedono la replica sincrona e asincrona di un data center su un’altra infrastruttura che rappresenta l’esatto clone del primo. Una struttura che deve trovarsi in una zona geografica diversa, proprio per azzerare l’impatto sulla business continuity.
Come si alimenta un data center
Responsabili dell’alimentazione dei data center è un insieme di sottosistemi e componenti elettrici che sono il fattore di costo più significativo. Essi rappresentano inoltre l’elemento di criticità rispetto ai tempi di fermo delle infrastrutture ospitate nella server farm.
Il sistema di distribuzione elettrica di un data center è costituito da un trasformatore, un generatore di backup, uno switch, un quadro elettrico di distribuzione, un gruppo di continuità e un’unità di distribuzione dell’alimentazione (PDU). Questo cluster alimenta a sua volta una serie di circuiti collegati in modo multiplo a ciascun armadio IT, tramite un cablaggio conservato in canaline rigide o flessibili situate sotto il pavimento flottante.
All’insegna della ridondanza, ogni catena di alimentazione viene clonata all’interno dei data center a seconda della certificazione Tier III o Tier IV a cui il data center fa riferimento. A questa ridondanza si uniscono percorsi di potenza preferenziali e sistemi bypassanti come gli STS (Static Transfer Switch). Essi sono capaci di spostare l’alimentazione da una linea di alimentazione proveniente da un power center a un’altra linea di alimentazione proveniente da un altro power center, senza disservizio per il carico.
Quanto consuma un data center
Secondo uno studio della Fondazione Politecnico di Milano, un datacenter di grandi dimensioni dislocato in un unico edificio può arrivare a consumare 3.000 Kilowatt. È un valore che si avvicina al consumo di 1.000 appartamenti. Per una piccola e media impresa si può stimare un assorbimento medio di circa 300 Kilowatt. In Italia si stima ci siano circa 3.000 data center il cui consumo totale si aggira intorno a 1 Gigawatt (circa 1/50 del consumo nazionale totale).
La maggior parte dei consumi di un data center derivano dal sistema di raffreddamento deputato a mantenere una temperatura costante degli ambienti: tra i 20/22°C sia d’inverno che d’estate. I sistemi che rimuovono il calore dai Data Center comprendono le unità CRAC (condizionatori per i locali che ospitano i computer). Inoltre, includono i sottosistemi ad esso associati, come chiller, torrette di raffreddamento, condensatori, condutture, gruppi di pompe, tubazioni e sistemi di raffreddamento per rack o file.
I costi di condizionamento dipendono molto dalla locazione del data center. Per questo molti provider costruiscono data center in zone del mondo notoriamente più fresche come l’Islanda, dove vengono utilizzati i venti freddi del Nord per il raffreddamento delle infrastrutture IT senza l’utilizzo di apparecchiature di condizionamento forzato. Ugualmente si guarda alla Finlandia, dove si possono utilizzare l’acqua fredda del mare e gli scambiatori di calore per raffreddare i server.
Focus sul carbon footprint
Dal momento che i consumi di un data center impattano sull’ambiente a causa delle emissioni nocive, i governi hanno diramato indicazioni precise volte a ridurre il carbon footprint.
Per eseguire i calcoli dell’efficienza del datacenter, è fondamentale definire chiaramente quale energia costituisce il carico IT e quale energia è relativa all’infrastruttura fisica. La designazione di server e dispositivi di archiviazione come carico IT e di UPS e unità di raffreddamento/trattamento dell’aria come infrastruttura fisica è ovvia.
Esistono tuttavia molti sottosistemi con elevato consumo energetico nel datacenter con una collocazione meno ovvia nel calcolo dell’efficienza, inclusi aree del personale, interruttori e Network Operations Center (NOC).
Che cos’è e come si calcola il PUE di un data center
Per calcolare quanto sia efficiente di un data center nell’usare l’energia che lo alimenta, l’unità di misura uilizzata è il PUE (Power Usage Effectiveness). Si tratta di un paramentro che stabilisce quanta potenza elettrica sia dedicata all’alimentazioni degli apparati IT rispetto ai servizi ausiliari come il condizionamento o le perdite degli UPS.
In dettaglio, il PUE è il rapporto tra la potenza totale assorbita dal data center (PT) e quella usata dai soli apparati IT (PIT). Un valore di PUE pari a 1 (misura ottimale) indica che tutta l’energia assorbita dall’impianto viene utilizzata per gli apparati IT.
In base alle valutazioni del consorzio Green Grid (che ha definito il PUE) e dell’agenzia EPA, il valore medio attuale di PUE per i data center in tutto il mondo si aggira intorno a 1,8, ad indicare che in consumi energetici non-PIT (come il condizionamento degli ambienti, l’illuminazione, le perdite energetiche, ecc.) sono mediamente pari all’80% del valore PIT, ovverosia a circa il 45% della potenza complessivamente assorbita dal data center (PT).
Al momento il data center che presenta il valore di PUE più basso (1,08, consumi non-PIT pari a circa il 7,5% di PT) appartiene a Yahoo! Ed è stato costruito nelle vicinanze delle Cascate del Niagara.
Data center virtuale: che cos’è il Software Defined Data Center (SDDC)
Grazie alla virtualizzazione e al cloud i data center si sono ulteriormente evoluti attraverso nuove logiche di gestione all’insegna dell’ottimizzazione secondo i nuovi approcci dell’as service, del pay per use.
A spingere a una virtualizzazione dei data center l’adozione sempre più ampia dei server e desktop x86, che ha amplificato nei data center i problemi di sottoutilizzo dell’hardware. Hardware usato in media solo a un 10-15% della sua capacità reale nelle situazioni migliori fino al 40-50% in quelle peggiori. Non è solo una questione di malagestione delle risorse. Server e apparati hardware, anche quando non eseguono applicazioni e lavoro, costano comunque perché consumano energia di alimentazione e ne richiedono per il loro raffreddamento.
Il percorso verso l’SDDC passa per la virtualizzazione
La proliferazione di isole informatiche e sistemi eterogenei legata all’aumento delle procedure ICT accresce anche la complessità e i costi in manutenzione e personale con competenze specialistiche. Anche la gestione e protezione delle postazioni desktop diventa sempre più complessa, per via della costante necessità di applicare aggiornamenti e patch di riparazione delle vulnerabilità.
Il consolidamento di questi server attraverso la virtualizzazione consente di recuperare efficienza, ottimizzando l’utilizzo dell’hardware, riducendo i consumi e semplificando la gestione. Grazie alla virtualizzazione, infatti, il consolidamento all’interno delle macchine server fisiche di numerose macchine server virtuali, configurabili via software, permette di ridurre l’infrastruttura hardware.
Lo stadio e il miglioramento successivo rispetto alla virtualizzazione delle risorse hardware consiste nella transizione verso un’architettura IT cloud-enabled. Una nuova piattaforma capace di fornire via software tutte le risorse (CPU, memoria, storage, ecc.) in modalità di servizio.
Il punto di arrivo di questo lungo percorso? È il Software-Defined Data Center (SDDC), in cui tutta l’infrastruttura IT è completamente virtualizzata: dai server fisici agli apparati di rete, dai dispositivi di storage alle applicazioni.
Come funziona un Software Defined Data Center
Nel Software-Defined Data Center (SDCC) la programmabilità della rete e la gestione agile ed elastica dei pool di risorse IT e dei workload via software si sostituisce alla macchinosa e dispendiosa logica di amministrazione dei silos informativi stratificati e separati. Ciò permette di introdurre una automazione e capacità di controllo delle risorse stesse anche di tipo vendor-agnostic. Cioè una gestione che è indipendente dalla tipologia e provenienza degli apparati hardware esistenti.
Come accennato, nel modello del SDDC, per ottenere i massimi benefici di amministrazione, la virtualizzazione delle risorse è spinta all’estremo. Essa abbraccia ogni componente dell’infrastruttura IT: server e computer, apparati di networking, apparati di storage, applicazioni e servizi. Si arriva così all’IT as-a-Service (ITaaS).
La virtualizzazione del networking
In maniera analoga ai layer software di controllo delle varie macchine virtuali, cioè gli hypervisor, lo stesso modello operativo della virtualizzazione può essere applicato anche al networking. Anche i dispositivi di rete (switch, router, hub e via dicendo) si possono virtualizzare. Attraverso un network hypervisor, uno strato di intelligenza software è possibile governare, e orchestrare in modo armonico, tutte le porte di rete, fisiche e logiche.
L’unica condizione necessaria è poter fare affidamento sulla capacità di trasporto dei pacchetti da parte della rete fisica sottostante. Allo stesso modo, questo modello è applicabile anche per gli apparati di storage (storage as-a-Service), così come ad ogni altro dispositivo, quali gli apparati di security.
SDDC e storage
Nel caso specifico dello storage, è importante sottolineare che il modello SDDC permette di integrare nell’infrastruttura non solo gli storage array dedicati, ad alte prestazioni, per workload mission-critical. È infatti possibile integrare anche hardware commodity e DAS (direct attached storage), ossia gli hard disk interni di macchine server, PC desktop e laptop.
Nel paradigma SDDC anche gli strumenti di gestione (monitoraggio, creazione, rimozione, eliminazione, configurazione, allocazione, spostamento) degli oggetti virtuali acquisiscono una particolare valenza. Questo proprio perché oggi la virtualizzazione delle risorse IT sta diventando pervasiva, e dando luogo a una proliferazione di macchine virtuali. Il riferimento è ai tool software già predisposti in maniera nativa per governare (provisioning, self-service, reporting, automazione) infrastrutture ibride, costituite da componenti fisici e virtuali.
IT as a Service: così il data center diventa on demand e pay per use
Raggiungere il modello architetturale del Software-Defined Data Center è oggi una condizione essenziale per implementare in azienda una reale IT as-a-Service (ItaaS). Il percorso di migrazione deve passare attraverso una virtualizzazione pervasiva, estesa cioè a tutti i componenti: server, rete, storage, servizi. I benefici ottenibili si misurano in un incremento dell’agilità di amministrazione declinabile in ogni area IT.
Se ieri il possesso di sistemi e macchine era un fattore imprescindibile dell’ICT oggi iniziano ad affermarsi modelli ibridi (hybrid cloud). Per il futuro le previsioni degli analisti sono che le aziende esternalizzeranno i loro data center affidando le loro infrastrutture a provider specializzati.
Un’altro aspetto della governance dei data center è l’iperconvergenza. Alla base dell’iperconvergenza c’è una nuova intelligenza del software. Il modello chiavi in mano è il seguente. Un fornitore consegna un insieme preconfigurato di hardware e software in un singolo chassis. Questo per minimizzare i problemi di compatibilità fra differenti componenti e razionalizzare la gestione di tutta l’infrastruttura.
Insomma lo sviluppo dei data center si basa sempre più sul concetto di agilità. Un’agilità fondata, in particolare, su modalità di erogazione dei servizi che consentono di automatizzare il provisioning delle risorse. E d’altra parte permette di ottimizzare il reporting delle voci di consumo e dei costi associati. Nonché di applicare modelli d’uso improntati a una fruibilità di tipo self-service e on-demand.
La spesa per data center nel 2020, l’effetto Covid
Secondo una stima Gartner la diffusione della pandemia ha inciso in maniera decisa sugli investimenti nei data center. Il 2020 chiude cioè con perdite significative di spesa in quest’ambito, ma ci si aspetta un segno più per quest’anno.
Nello specifico, secondo la società di analisi nel 2021 il budget per infrastrutture IT nei datacenter aumenterà del 6% per raggiungere un valore complessivo di 200 miliardi di dollari, dopo che nel 2020 si è registrato un calo del 10,3%. Tale crescita non riporterà però il mercato al livello del 2019 quando erano stati investiti 210 miliardi.
Gartner ha sottolineato che il Covid ha fermato la costruzione di più del 60% delle strutture che erano state pianificate nel 2019.
“La priorità per le aziende – ha commentato Naveen Mishra, analista di Gartner – nel corso del 2020 è stata quella di riuscire a tenere assieme il loro business. Per questo la crescita dei datacenter è stata generalmente rinviata a quando i vari mercati non avranno recuperato. Noi ci aspettiamo che i datacenter delle grandi aziende rimangano fermi un po’ più degli altri e ripartano più avanti. Mentre i big tech continueranno a espandersi per supportare la crescita della richiesta di public cloud”.