Che cos’è un data center? È la sala macchine (anche sala Ced – Centro elaborazione dati) che ospita server, storage, gruppi di continuità e tutte le apparecchiature che consentono di governare i processi, le comunicazioni così come i servizi che supportano qualsiasi attività aziendale. In estrema sintesi, sono i data center a garantire il funzionamento 24 ore al giorno, tutti i giorni dell’anno, di qualsiasi sistema informativo.
Il data center oggi rappresenta il cuore pulsante del business. Esso fornisce anche tutta la consulenza tecnico-scientifica alle diverse strutture in materia di digitalizzazione dei processi, elaborazione elettronica dei dati, definizione delle reti di calcolo, progettazione e/o implementazione dei sistemi informativi. E include tutte le applicazioni di supporto oltre all’integrazione e all’interfacciamento con i sistemi esterni all’organizzazione.
Cos’è e a cosa serve un data center, una premessa

In questa guida dettagliata e completa ai data center, vedremo in maniera approfondita, cos’è e come funziona un data center, le classificazioni dei data center, la sicurezza, i consumi ed altri approfondimenti sul data center.
Ma prima di entrare nel dettaglio di questi aspetti di base, ricordiamo che oggi, quando si parla di data center spesso non si pensa più a un luogo fisico perché il data center è ormai per definizione ibrido. Sempre più spesso esso è composto da: ambienti in house, cloud privati e cloud pubblici forniti da differenti provider. Per approfondire questa evoluzione, consigliamo a lettura dell’articolo Il nuovo data center che abilita il business.
Data center in house
L’efficienza del business passa dal bilanciamento dei data center, che rimane sempre e in ogni caso il perno tecnologico dello sviluppo e della crescita di un’azienda. Uno degli aspetti importanti di un CED è la capacità di movimentare un gran numero di processi e di dati.
Rispetto al passato, la progressiva digitalizzazione in ambito pubblico e privato ha portato l’ordine dei ragionamenti a spostarsi da una gestione misurata per terabytes a una misurata in zetabytes. Da qui ai prossimi 5 anni saranno generati 35 zetabytes di contenuti digitali (Fonte: Osservatori Digital Innovation). E questo porta le aziende a fare scelte sempre più attente alla scalabilità e alla flessibilità delle risorse presenti nel data center ma anche ai modelli di riferimento.
Lo sviluppo informatico ha portato a un potenziamento del parco installato all’interno dei data center. Per supportare la crescente domanda di sistemi e soluzioni, infatti, le sale macchine si sono letteralmente popolate di server di diversa capienza e di diversa configurazione a seconda delle attività presidiate. Per questo motivo un sinonimo di data center è server farm. Un data center, a seconda delle necessità aziendali, può occupare un armadio (rack server), pochi metri quadrati o arrivare addirittura a occupare un’intero stabile.
Come funziona un data center
Strutture altamente specializzate, organizzate per consentirne la massima efficienza funzionale a dispositivi, sistemi e servizi, sono i data center ad assicurare la business continuity mondiale.
Come funzionano? Grazie a sistemi di connettività stabili e ridondanti, ovvero attraverso una configurazione duplicata che garantisce la continuità operativa nel caso di guasti uno o più sistemi. Questo per garantire sempre e comunque la massima funzionalità. È in questo modo che i data center consentono di rendere accessibili i dati elaborati dalle unità computazionali. E rendono disponibili le informazioni conservate presso i sistemi di storage ospitati nei server.
Tutta l’infrastruttura di un data center è incentrata su reti che implementano il protocollo IP e collegano tra loro macchine e applicazioni. Ogni server farm ospita differenti set di router (ovvero dei dispositivi di rete che si occupano di instradare i dati, suddivisi in pacchetti, fra sottoreti diverse). Ospita inoltre switch progettati e configurati per veicolare il traffico dati in modo bidirezionale fra i server e il resto del mondo.
All’interno di un data center, oltre ai server, si trovano vari sistemi di archiviazione dei dati (storage), diversi sistemi informatici atti al monitoraggio, al controllo e alla gestione di macchine, applicazioni e, infrastrutture di telecomunicazione oltre a tutti gli accessori ad essi collegati. Per garantire l’operatività e la piena efficienza delle macchine, oltre a dei gruppi di continuità (UPS centers) i data center prevedono impianti di climatizzazione e di controllo ambientale molto particolari, impianti antincendio e sistemi di sicurezza avanzati.

Guida alla progettazione data center: standard di riferimento e classificazione (TIER I,II,III,IV)
La progettazione di un data center è estremamente complessa. Costruire un ambiente centralizzato, idoneo e performante, dotato di strutture ben dimensionate e con livelli elevati di sicurezza, affidabilità ed efficienza nella erogazione dei servizi non è facile. Per questo motivo è stato creato uno standard di riferimento.
Le best practice, ovvero le linee guida per la realizzazione di un data center seguono lo standard TIA-942. Nella TIA-942 sono presenti indicazioni sulla definizione degli spazi e il design dei CED, sulla realizzazione dei cablaggi, sulle condizioni ambientali.
Le linee guida includono anche una classificazione dei data center secondo 4 livelli, detti TIER (nella traduzione TIER si intende il sistema per identificare la struttura di un data center). Il primo è quello base, in cui la continuità operativa ha delta temporali di interruzione pari a quasi 30 ore l’anno. Sembra un numero ridotto, ma non è così. Si provi a pensare cosa significa per un supermercato, un ospedale, una banca, una fabbrica o un aereoporto avere un’indisponibilità anche solo di due o tre ore dei servizi. È chiaro quindi il motivo per cui, a seconda del core business, bisogna puntare a livelli più elevati.
TIER I
Continuità operativa garantita al 99,671% (significa fermo del data center per 28,8 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER I?
- Suscettibilità a interruzioni legate ad attività pianificate e non pianificate
- Mancanza di ridondanze e con singolo sistema di alimentazione e di raffreddamento
- Presenza o meno di UPS, generatori e pavimento flottante
- Totale spegnimento durante le manutenzioni preventive
TIER II
Continuità operativa garantita al 99,741% (significa fermo del data center per 22 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER II?
- Meno suscettibilità a interruzioni a causa di attività pianificate e non pianificate
- Componenti ridondati e con singolo sistema di alimentazione e di raffreddamento
- Presenza di UPS, generatori e pavimento flottante
- Totale spegnimento durante le manutenzioni su alimentazione e altre parti dell’infrastruttura
TIER III
Continuità operativa garantita al 99,982% (significa fermo del data center per 1,6 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER III?
- Possibilità di effettuare manutenzioni pianificate senza interruzione, ma suscettibilità a interruzioni a causa di attività non pianificate
- Componenti ridondati e collegamenti multipli per alimentazione e raffreddamento
- Presenza di UPS, generatori e pavimento flottante
- Facoltativo lo spegnimento totale durante le manutenzioni (prevista deviazione su altri collegamenti per alimentazione e infrastruttura)
TIER IV
Continuità operativa garantita al 99,995% (significa fermo del data center per 0,4 ore/anno)
Quali sono le caratteristiche di configurazione e il livello di ridondanza del TIER IV?
- Possibilità di effettuare manutenzioni pianificate e senza impatti negativi sulla gestione della funzionalità
- Componenti ridondati e collegamenti multipli contemporaneamente attivi per alimentazione e raffreddamento
- Disponibilità di UPS, generatori e pavimento flottante
- Facoltativo lo spegnimento totale durante le manutenzioni (prevista deviazione su altri collegamenti per alimentazione e infrastruttura)
Come si mette in sicurezza un data center, la normativa

Uno degli aspetti cardine di un data center è la sua sicurezza fisica e logica. Da un lato è necessario preservare la continuità elaborativa delle unità ospitate nel data center, dall’altro è fondamentale proteggere i dati e le applicazioni che risiedono nei sistemi di storage e vengono elaborati dai sistemi informativi.
Fondamentale per la sicurezza nella progettazione di un data center è la messa a terra: questa categoria comprende sia la rete di collegamento che i sistemi di messa a terra utili per proteggere le apparecchiature dei CED da scariche elettrostatiche, sovracorrenti e fulmini. Oltre a presidiare le condizioni ambientali, preservando i dispositivi e le reti da alluvioni, incendi, catastrofi naturali la sicurezza di un data center dipende anche da errori umani.
Secondo i dati dell’Uptime Institute, il 40% delle interruzioni di servizio dei data center è causato da errori umani: i sistemi, infatti, talvolta sono così complessi da riparare che i tecnici e il personale di manutenzione finiscono spesso per commettere degli sbagli anche solo scollegando una presa elettrica durante l’azionamento o la manutenzione di una macchina. Un altro punto critico è il cybercrime: le minacce ad opera di malintenzionati in rete crescono in maniera esponenziale ed è molto difficile impostare un controllo su un perimetro fatto di sistemi fisici e virtuali. Per gli analisti di Gartner, oltre l’80% delle imprese negli ultimi tre anni non è riuscita a definire politiche di sicurezza dei dati adeguate.
Data center e privacy dei dati
La criticità nella gestione dei tradizionali silos informativi è legata ai problemi crescenti in termini di compliance normativa che includono rigorosi requisiti costruttivi. Oggi si è più attenti ai temi della sostenibilità ambientale e della riduzione dei consumi, non solo. Si focalizza l’attenzione sulla sicurezza in relazione alla gestione della Privacy e alla salvaguardia del patrimonio ICT dagli attacchi della cybercriminalità, alle distrazioni dei dipendenti, mai sufficientemente addestrati alle best pratice della protezione e della tutela dei dati e delle risorse aziendali.
A questo proposito il testo del Garante spiega come debbano essere presidiati “apparati e reti di comunicazione elettronica, inclusi i sistemi di trasmissione, le apparecchiature di commutazione o di instradamento, gli elementi di rete non attivi che consentono di trasmettere segnali via cavo, via radio, a mezzo di fibre ottiche o con altri mezzi elettromagnetici, comprese le reti satellitari, le reti terrestri mobili e fisse a commutazione di circuito e a commutazione di pacchetto, (Internet inclusa), i sistemi per il trasporto della corrente elettrica, nella misura in cui siano utilizzati per trasmettere i segnali” (Decreto legislativo 30 giugno 2003, n. 196 (Testo Consolidato Vigente) CODICE IN MATERIA DI PROTEZIONE DEI DATI PERSONALI – ART. 4 – 2c).
Non a caso i migliori data center sono vere e proprie fortezze blindate. Spesso sono sorvegliati da guardie armate e l’accesso è consentito solo alle persone autorizzate. Tale accesso si ha attraverso sistemi di controllo regolati mediante soluzioni di identificazione univoca come badge magnetici, card RFID, soluzioni biometriche.
Sicurezza fisica e sorveglianza
Un altro criterio di sicurezza e la compartimentazione dei data center ai dipendenti, in modo da garantire l’accesso solo a determinate sale e zone del data center. I rack dove sono ospitate le macchine spesso sono chiuse a chiave con serrature particolari, proprio per potenziare la salvaguardia dei sistemi.
La sorveglianza prevede l’utilizzo di videocamere e impianti di allarme associati al motion detection. Inoltre si fa uso di una sensoristica avanzata per il rilevamento di fumi, effrazioni e qualsiasi altra anomalia. A questi sensori sono collegati dei sistemi di chiusura porte antincendio automatizzate e meccanismi di controllo che interrompono l’alimentazione dei dispositivi e dei gruppi elettrogeni. E questo per evitare che eventuali fiamme possano alimentarsi ulteriormente.
I sensori regolano poi l’intervento del sistema antincendio vero e proprio che interviene sulle fiamme con gas inerte (un composto atossico a base di acqua e azoto). Sostanze cioè che non lasciano residui e permettono l’intervento senza pericolo nei locali da parte del personale autorizzato.
Sicurezza logica
Per quanto riguarda la sicurezza logica dei dati, i data center implementano firewall, sistemi antintrusione (IDS) per sorvegliare i server, sistemi di monitoraggio permanente dei servizi di rete e dei sistemi per il controllo degli accessi digitali e la prevenzione degli attacchi. Un altro asset della governance è la definizione di politiche di Disaster Recovery. Queste ultime prevedono la replica sincrona e asincrona di un data center su un’altra infrastruttura che rappresenta l’esatto clone del primo. Una struttura che deve trovarsi in una zona geografica diversa, proprio per azzerare l’impatto sulla business continuity.
Come si alimenta un data center
Responsabili dell’alimentazione dei data center è un insieme di sottosistemi e componenti elettrici che sono il fattore di costo più significativo. Essi rappresentano inoltre l’elemento di criticità rispetto ai tempi di fermo delle infrastrutture ospitate nella server farm.
Il sistema di distribuzione elettrica di un data center è costituito da un trasformatore, un generatore di backup, uno switch, un quadro elettrico di distribuzione, un gruppo di continuità e un’unità di distribuzione dell’alimentazione (PDU). Questo cluster alimenta a sua volta una serie di circuiti collegati in modo multiplo a ciascun armadio IT, tramite un cablaggio conservato in canaline rigide o flessibili situate sotto il pavimento flottante.
All’insegna della ridondanza, ogni catena di alimentazione viene clonata all’interno dei data center a seconda della certificazione Tier III o Tier IV a cui il data center fa riferimento. A questa ridondanza si uniscono percorsi di potenza preferenziali e sistemi bypassanti come gli STS (Static Transfer Switch). Essi sono capaci di spostare l’alimentazione da una linea di alimentazione proveniente da un power center a un’altra linea di alimentazione proveniente da un altro power center, senza disservizio per il carico.

Quanto consuma un data center
Secondo uno studio della Fondazione Politecnico di Milano, un datacenter di grandi dimensioni dislocato in un unico edificio può arrivare a consumare 3.000 Kilowatt. È un valore che si avvicina al consumo di 1.000 appartamenti. Per una piccola e media impresa si può stimare un assorbimento medio di circa 300 Kilowatt. In Italia si stima ci siano circa 3.000 data center il cui consumo totale si aggira intorno a 1 Gigawatt (circa 1/50 del consumo nazionale totale).

La maggior parte dei consumi di un data center derivano dal sistema di raffreddamento deputato a mantenere una temperatura costante degli ambienti: tra i 20/22°C sia d’inverno che d’estate. I sistemi che rimuovono il calore dai Data Center comprendono le unità CRAC (condizionatori per i locali che ospitano i computer). Inoltre, includono i sottosistemi ad esso associati, come chiller, torrette di raffreddamento, condensatori, condutture, gruppi di pompe, tubazioni e sistemi di raffreddamento per rack o file.
I costi di condizionamento dipendono molto dalla locazione del data center. Per questo molti provider costruiscono data center in zone del mondo notoriamente più fresche come l’Islanda, dove vengono utilizzati i venti freddi del Nord per il raffreddamento delle infrastrutture IT senza l’utilizzo di apparecchiature di condizionamento forzato. Ugualmente si guarda alla Finlandia, dove si possono utilizzare l’acqua fredda del mare e gli scambiatori di calore per raffreddare i server.
Focus sul carbon footprint
Dal momento che i consumi di un data center impattano sull’ambiente a causa delle emissioni nocive, i governi hanno diramato indicazioni precise volte a ridurre il carbon footprint.
Per eseguire i calcoli dell’efficienza del datacenter, è fondamentale definire chiaramente quale energia costituisce il carico IT e quale energia è relativa all’infrastruttura fisica. La designazione di server e dispositivi di archiviazione come carico IT e di UPS e unità di raffreddamento/trattamento dell’aria come infrastruttura fisica è ovvia.
Esistono tuttavia molti sottosistemi con elevato consumo energetico nel datacenter con una collocazione meno ovvia nel calcolo dell’efficienza, inclusi aree del personale, interruttori e Network Operations Center (NOC).
Che cos’è e come si calcola il PUE di un data center
Per calcolare quanto sia efficiente di un data center nell’usare l’energia che lo alimenta, l’unità di misura uilizzata è il PUE (Power Usage Effectiveness). Si tratta di un paramentro che stabilisce quanta potenza elettrica sia dedicata all’alimentazioni degli apparati IT rispetto ai servizi ausiliari come il condizionamento o le perdite degli UPS.
In dettaglio, il PUE è il rapporto tra la potenza totale assorbita dal data center (PT) e quella usata dai soli apparati IT (PIT). Un valore di PUE pari a 1 (misura ottimale) indica che tutta l’energia assorbita dall’impianto viene utilizzata per gli apparati IT.
In base alle valutazioni del consorzio Green Grid (che ha definito il PUE) e dell’agenzia EPA, il valore medio attuale di PUE per i data center in tutto il mondo si aggira intorno a 1,8, ad indicare che in consumi energetici non-PIT (come il condizionamento degli ambienti, l’illuminazione, le perdite energetiche, ecc.) sono mediamente pari all’80% del valore PIT, ovverosia a circa il 45% della potenza complessivamente assorbita dal data center (PT).

Al momento il data center che presenta il valore di PUE più basso (1,08, consumi non-PIT pari a circa il 7,5% di PT) appartiene a Yahoo! Ed è stato costruito nelle vicinanze delle Cascate del Niagara.
Data center virtuale: che cos’è il Software Defined Data Center (SDDC)
Grazie alla virtualizzazione e al cloud i data center si sono ulteriormente evoluti attraverso nuove logiche di gestione all’insegna dell’ottimizzazione secondo i nuovi approcci dell’as service, del pay per use.
A spingere a una virtualizzazione dei data center l’adozione sempre più ampia dei server e desktop x86, che ha amplificato nei data center i problemi di sottoutilizzo dell’hardware. Hardware usato in media solo a un 10-15% della sua capacità reale nelle situazioni migliori fino al 40-50% in quelle peggiori. Non è solo una questione di malagestione delle risorse. Server e apparati hardware, anche quando non eseguono applicazioni e lavoro, costano comunque perché consumano energia di alimentazione e ne richiedono per il loro raffreddamento.
Il percorso verso l’SDDC passa per la virtualizzazione
La proliferazione di isole informatiche e sistemi eterogenei legata all’aumento delle procedure ICT accresce anche la complessità e i costi in manutenzione e personale con competenze specialistiche. Anche la gestione e protezione delle postazioni desktop diventa sempre più complessa, per via della costante necessità di applicare aggiornamenti e patch di riparazione delle vulnerabilità.
Il consolidamento di questi server attraverso la virtualizzazione consente di recuperare efficienza, ottimizzando l’utilizzo dell’hardware, riducendo i consumi e semplificando la gestione. Grazie alla virtualizzazione, infatti, il consolidamento all’interno delle macchine server fisiche di numerose macchine server virtuali, configurabili via software, permette di ridurre l’infrastruttura hardware.

Lo stadio e il miglioramento successivo rispetto alla virtualizzazione delle risorse hardware consiste nella transizione verso un’architettura IT cloud-enabled. Una nuova piattaforma capace di fornire via software tutte le risorse (CPU, memoria, storage, ecc.) in modalità di servizio.
Il punto di arrivo di questo lungo percorso? È il Software-Defined Data Center (SDDC), in cui tutta l’infrastruttura IT è completamente virtualizzata: dai server fisici agli apparati di rete, dai dispositivi di storage alle applicazioni.
Come funziona un Software Defined Data Center
Nel Software-Defined Data Center (SDCC) la programmabilità della rete e la gestione agile ed elastica dei pool di risorse IT e dei workload via software si sostituisce alla macchinosa e dispendiosa logica di amministrazione dei silos informativi stratificati e separati. Ciò permette di introdurre una automazione e capacità di controllo delle risorse stesse anche di tipo vendor-agnostic. Cioè una gestione che è indipendente dalla tipologia e provenienza degli apparati hardware esistenti.
Come accennato, nel modello del SDDC, per ottenere i massimi benefici di amministrazione, la virtualizzazione delle risorse è spinta all’estremo. Essa abbraccia ogni componente dell’infrastruttura IT: server e computer, apparati di networking, apparati di storage, applicazioni e servizi. Si arriva così all’IT as-a-Service (ITaaS).

La virtualizzazione del networking
In maniera analoga ai layer software di controllo delle varie macchine virtuali, cioè gli hypervisor, lo stesso modello operativo della virtualizzazione può essere applicato anche al networking. Anche i dispositivi di rete (switch, router, hub e via dicendo) si possono virtualizzare. Attraverso un network hypervisor, uno strato di intelligenza software è possibile governare, e orchestrare in modo armonico, tutte le porte di rete, fisiche e logiche.
L’unica condizione necessaria è poter fare affidamento sulla capacità di trasporto dei pacchetti da parte della rete fisica sottostante. Allo stesso modo, questo modello è applicabile anche per gli apparati di storage (storage as-a-Service), così come ad ogni altro dispositivo, quali gli apparati di security.
SDDC e storage
Nel caso specifico dello storage, è importante sottolineare che il modello SDDC permette di integrare nell’infrastruttura non solo gli storage array dedicati, ad alte prestazioni, per workload mission-critical. È infatti possibile integrare anche hardware commodity e DAS (direct attached storage), ossia gli hard disk interni di macchine server, PC desktop e laptop.
Nel paradigma SDDC anche gli strumenti di gestione (monitoraggio, creazione, rimozione, eliminazione, configurazione, allocazione, spostamento) degli oggetti virtuali acquisiscono una particolare valenza. Questo proprio perché oggi la virtualizzazione delle risorse IT sta diventando pervasiva, e dando luogo a una proliferazione di macchine virtuali. Il riferimento è ai tool software già predisposti in maniera nativa per governare (provisioning, self-service, reporting, automazione) infrastrutture ibride, costituite da componenti fisici e virtuali.
IT as a Service: così il data center diventa on demand e pay per use
Raggiungere il modello architetturale del Software-Defined Data Center è oggi una condizione essenziale per implementare in azienda una reale IT as-a-Service (ItaaS). Il percorso di migrazione deve passare attraverso una virtualizzazione pervasiva, estesa cioè a tutti i componenti: server, rete, storage, servizi. I benefici ottenibili si misurano in un incremento dell’agilità di amministrazione declinabile in ogni area IT.
Se ieri il possesso di sistemi e macchine era un fattore imprescindibile dell’ICT oggi iniziano ad affermarsi modelli ibridi (hybrid cloud). Per il futuro le previsioni degli analisti sono che le aziende esternalizzeranno i loro data center affidando le loro infrastrutture a provider specializzati.

Un’altro aspetto della governance dei data center è l’iperconvergenza. Alla base dell’iperconvergenza c’è una nuova intelligenza del software. Il modello chiavi in mano è il seguente. Un fornitore consegna un insieme preconfigurato di hardware e software in un singolo chassis. Questo per minimizzare i problemi di compatibilità fra differenti componenti e razionalizzare la gestione di tutta l’infrastruttura.
Insomma lo sviluppo dei data center si basa sempre più sul concetto di agilità. Un’agilità fondata, in particolare, su modalità di erogazione dei servizi che consentono di automatizzare il provisioning delle risorse. E d’altra parte permette di ottimizzare il reporting delle voci di consumo e dei costi associati. Nonché di applicare modelli d’uso improntati a una fruibilità di tipo self-service e on-demand.
Sostenibilità nei data center: tecnologie e strategie per un impatto ridotto
La crescente espansione dei data center impone una riflessione sempre più stringente sulla sostenibilità ambientale, con particolare attenzione al consumo energetico e alla gestione termica. Se da un lato la digitalizzazione richiede infrastrutture IT sempre più performanti, dall’altro è fondamentale adottare soluzioni tecnologiche avanzate per ridurre l’impatto ambientale. In questo contesto, emergono diverse innovazioni che stanno rivoluzionando il settore.
Digital twin: la replica virtuale per l’ottimizzazione dei consumi del CED
L’utilizzo dei digital twin sta diventando sempre più rilevante per la gestione sostenibile dei data center. Un digital twin è una replica virtuale dell’infrastruttura fisica, che utilizza dati in tempo reale per simulare, monitorare e ottimizzare le operazioni. Questa tecnologia permette di:
- Simulare scenari di consumo energetico per ottimizzare l’efficienza dell’alimentazione elettrica.
- Migliorare la gestione termica, prevedendo punti di surriscaldamento e suggerendo soluzioni per una gestione più innovativa tra soluzioni di contenimento, di monitoraggio e di bilanciamento dell’aria.
- Ridurre i tempi di inattività grazie alla manutenzione predittiva, evitando guasti critici e sprechi di risorse.
Free cooling e sistemi di raffreddamento avanzati nei data center
Il raffreddamento rappresenta una delle principali voci di consumo nei data center, arrivando a incidere fino al 40% del fabbisogno energetico totale. Per ridurre questo impatto, vengono adottate soluzioni come:
- Free cooling, che sfrutta l’aria esterna per raffreddare le sale server, riducendo il ricorso ai sistemi di condizionamento tradizionali.
- Raffreddamento a liquido, dove i server vengono raffreddati con soluzioni a immersione o circuiti di liquido refrigerante, aumentando l’efficienza rispetto ai sistemi ad aria.
- AI per la gestione termica, con algoritmi che regolano automaticamente la temperatura e il flusso d’aria per massimizzare il risparmio energetico.
Energie rinnovabili e batterie a basso impatto nelle sale macchine
L’integrazione con fonti di energia rinnovabile è una delle strategie più efficaci per ridurre l’impatto ambientale dei data center. Tra le soluzioni più diffuse troviamo:
- Fotovoltaico e eolico, che alimentano direttamente le strutture IT o vengono utilizzati per compensare i consumi con energia pulita.
- Batterie agli ioni di litio di nuova generazione, che sostituiscono le tradizionali batterie al piombo negli UPS (gruppi di continuità) per una maggiore durata e una minore impronta ecologica.
- Idrogeno verde, una tecnologia emergente che promette di alimentare i data center con un’alternativa sostenibile ai combustibili fossili.
Recupero del calore e economia circolare delle server farm
Un’altra innovazione in chiave sostenibile è il recupero del calore generato dai server, che può essere riutilizzato per il riscaldamento di edifici vicini o per processi industriali. In alcune città europee, questo sistema è già stato implementato per alimentare reti di teleriscaldamento urbano, creando un modello di economia circolare che riduce gli sprechi.
L’adozione di queste tecnologie consente non solo di ridurre l’impronta carbonica dei data center, ma anche di migliorarne l’efficienza operativa e la resilienza. In un contesto di crescente attenzione alla sostenibilità, l’implementazione di strategie avanzate diventa un fattore competitivo chiave per i fornitori di servizi cloud e per le aziende che puntano a infrastrutture IT più green.
Il ruolo dell’Italia nel panorama dei data center
L’Italia sta emergendo come un mercato chiave per l’espansione dei data center. Investimenti significativi sono previsti nel periodo 2025-2026, con un totale di 10 miliardi di euro, raddoppiando rispetto ai due anni precedenti. Grandi aziende tecnologiche, come Microsoft e Amazon Web Services, hanno annunciato piani di investimento rispettivamente di 4,3 miliardi e 1,2 miliardi di euro. Tuttavia, per sostenere questa crescita, è fondamentale affrontare le sfide legate alla capacità della rete elettrica nazionale e ai costi energetici elevati. Come fanno notare gli osservatori, la disponibilità di energia a costi competitivi è essenziale per attrarre sviluppatori di cloud su larga scala e garantire la sostenibilità a lungo termine del settore.
L’espansione dei data center offre l’opportunità di sviluppare infrastrutture più sostenibili, adottando tecnologie innovative e fonti di energia rinnovabile. Questo non solo ridurrebbe l’impatto ambientale, ma potrebbe anche posizionare l’Italia come leader nella gestione ecologica dei data center, rispondendo alle crescenti preoccupazioni globali riguardo al consumo energetico del settore.