Al data center non è mai stato chiesto di essere così vicino al business. O meglio, mai come oggi le richieste che arrivano dal business necessitano di una radicale evoluzione in termini di organizzazione del data center. Lo scenario applicativo nel quale si collocano realtà come banche, assicurazioni, finanza e tutte le imprese che stanno attuando progetti Industria 4.0, lascia prevedere un aumento esponenziale nella potenza elaborativa richiesta e nella quantità di dati trattati, in un modo che non ha eguali nel passato. E non solo in termini quantitativi: mai come oggi è forte e inderogabile la richiesta di affidabilità e di sicurezza. I fenomeni che stanno disegnando la digital transformation di tantissime imprese, primi fra tutti il digital banking e l’Industry 4.0, chiedono al data center un supporto che si traduce primariamente in estrema agilità operativa e in una accurata e precisa gestione dei costi. Di qui la necessità di condurre una strutturata e dettagliata attività di Risk Management (operativo e finanziario) per garantire la continuità di servizio in queste nuove condizioni al contorno.
Il ruolo del DCIM nel data center che si prepara per IoT e Industria 4.0
Per i gestori di Data center, per i CIO, per i Colocator o per le imprese specializzate nella erogazione di servizi di data center, il grande tema non è più solo quello della risposta in termini di capacità di calcolo, di sicurezza o di energy saving.
Il data center diventa oggi un vero e proprio asse strategico del business, in grado di supportarlo e valorizzarlo.
In questa nuova fase, alla piattaforma DCIM viene affidato un nuovo compito più delicato e più importante, rispetto a quello di per sé già rilevante del monitoraggio, del controllo di tutti i dispositivi smart presenti nel data center. Il DCIM si propone come la principale piattaforma strategica per la conduzione efficiente e efficace del data center.
Per Roberto Rumi, Sales Software Engineer per le soluzioni DCIM in Schneider Electric, occorre oggi considerare che tutta la domanda di flessibilità e di affidabilità si sta muovendo verso il basso: dalle applicazioni IT all’infrastruttura fisica, che al termine di tutta la catena di virtualizzazione le supporta. Il carico di lavoro che, ad esempio nel mondo delle banche, insisteva sull’area applicativa, è adesso rivolto anche alla componente infrastrutturale. La strategia di virtualizzazione e la velocità di risposta alla domanda impatta direttamente sulla componente infrastrutturale e sulla gestione operativa del data center, che deve essere in grado di rispondere a questa richiesta di flessibilità nelle risorse; non solo a livello di potenza di calcolo e performance, ma anche in termini di capacità di erogare la potenza elettrica, capacità frigorifera e di gestione degli spazi fisici.
Il nuovo data center deve essere in grado di fornire questo livello di dinamicità. E se prima ci si limitava al livello applicativo, adesso l’impatto si ripercuote inevitabilmente anche sulla parte infrastrutturale e sul data center nel suo complesso.
In concreto l’evoluzione alla quale stiamo assistendo è il passaggio da un data center statico a un data center dinamico.
Questo radicale cambiamento ha portato al fenomeno della centralità e dell’analisi del dato, tanto che sul valore del data center si concentra anche l’attenzione di figure come il CFO, come le LOB come il top management, che lo vedono sempre di più come un elemento che incide direttamente sul business dell’impresa.
E se l’effetto è dato dalla centralità del dato, il punto di partenza del processo è da individuare in fenomeni come digital banking, Open Banking, Industry 4.0, che a loro volta si integrano con altri fenomeni ad alta intensità di dati come la smart mobility, lo smart building, la smart logistics. Il driver di partenza è in un IoT che abilita la digitalizzazione di tutto (ambienti, processi, infrastrutture e strutture) e che permette di ricondurre e ricostruire in dati tutti i valori produttivi e di mercato dell’azienda. In questo scenario il prodotto non è più un elemento fisico, ma diventa un dato che si normalizzare, si può comparare e si può simulare. Si può anche lavorare sul dato per fare innovazione sul prodotto che rappresenta e trasformarlo, ad esempio in servizio, come peraltro già accade nell’Industry 4.0.
Ecco che vince chi avrà intelligenza e capacità di analytics e chi la potrà gestire in modo sempre più flessibile e veloce. La potenza di calcolo, la capacità di correlazione e la capacità di lavorare sui dati: rappresenteranno sempre di più un vantaggio competitivo, non più solo un servizio per l’azienda, ma una risorsa che consente di cambiare le prospettive dell’azienda stessa.
Il DCIM secondo Schneider Electric
Ed è qui che si colloca il DCIM, o meglio l’utilizzo strategico del DCIM. Il Data Center Infrastructure Management, così come lo interpreta Schneider Electric, non è solo lo strumento che può aiutare la rappresentazione del mondo fisico all’interno del data center, ma è lo strumento che può attuare l’integrazione tra il data center stesso e tutte le altre piattaforme di business dell’azienda. Il DCIM non è più stand alone, non è più solo lo strumento che permette di controllare e monitorare, ma attiva un dialogo con l’ERP, con il CRM con i tool di asset management e diventa a sua volta un elemento di business, in grado di colloquiare con gli altri pilastri di business dell’azienda.
Di questo nuovo approccio al DCIM e al data center si parlerà nel corso di un webinar dal titolo “Come sfruttare le opportunità di IoT, Open banking e Industry 4.0 con il DCIM per avvicinare il Data Center al business”, in programma il prossimo 30 maggio dalle ore 15.00 alle ore 16.00. Il webinar gratuito si propone di esaminare come le soluzioni DCIM possono permettere di gestire i Data Center in totale coerenza con la prospettiva di business dell’azienda.
Iscriviti subito
La parola chiave che aiuta a comprendere il fenomeno è precisione. Rumi mette in evidenza che se si innesta il DCIM nei meccanismi strategici dell’impresa, se lo si aggancia a tutte le altre componenti, il DCIM diventa anche uno strumento di analisi e di previsione. Innanzitutto per quanto riguarda l’utilizzo delle risorse e in seconda battuta come fonte di informazioni per la comprensione ancora più raffinata e dettaglia delle logiche di business. Perché se è vero che i dati rappresentano in modo sempre più completo i prodotti, i servizi e i valori dell’azienda, è evidente che la visione sui dati che arriva dal data center grazie al DCIM consente al top management una lettura del business innovativa e completa.
Il data center e il bisogno di real time
Ecco che entra in gioco un altro fattore che sta già cambiando radicalmente il mondo delle banche e inizia, anche con l’Industry 4.0, a esprimere i segni della IV Rivoluzione Industriale: il real time. Se un tempo il business chiedeva, in modo asincrono, al data center di rispondere alle richieste di capacità di calcolo in funzione di nuovi scenari di sviluppo, adesso è il data center stesso che è nella condizione di fornire gli elementi di forecast per stimare lo sviluppo dei carichi di calcolo e di business, in funzione, ad esempio, dell’analisi sempre più accurata, dal punto di vista quantitativo e qualitativo dei dati erogati. Real time vuol dire flessibilità e vuol dire capacità di agire tanto a livello applicativo quanto a livello di infrastruttura. Rumi richiama un esempio tanto semplice quanto efficace. È come pensare a una macchina che viene progettata per essere efficiente viaggiando a una certa velocità, con uno specifico stile di guida e lungo un certo tipo di percorso. Se alla stessa auto viene poi chiesto di operare a velocità diverse, condotta con nuovi di guida differenti ecco che evidentemente cambieranno le performance globali, i consumi, e in generale la capacità di rispondere a queste nuove istanze.
Ecco che diventa necessario disporre di una soluzione che consenta da una parte di monitorare tutti i parametri di riferimento della macchina, di metterli in relazione con la domanda specifica di performance ma che fornisca anche strumenti operativi in modo che si possa recuperare efficienza anche in condizioni diverse da quelle per le quali è stata progettata.
Il processo è analogo a quello dei Data Center. La vita operativa conduce spesso in contesti che sono diversi da quelli per i quali sono stati progettati e in aree che sono meno efficienti dove servono prima di tutto strumenti per il monitoraggio e per ridefinire i parametri di funzionamento.
Ma non bisogna dimenticare il tema dell’efficienza energetica
Rumi ricorda poi che non si può e non si deve abbandonare il tema dell’efficienza energetica, che è e resta centrale per determinare il ROI per ogni “progetto Data Center”.
Se non c’è un coinvolgimento multidisciplinare sulle tematiche dell’efficienza non è possibile dare una risposta al tema ROI. Il calcolo di questo parametro non è solo nella gestione di un risparmio assoluto in termini di efficienza energetica, ma nella capacità di gestire con la massima flessibilità questo valore.
Se poi si guarda al tema del downtime e dunque alle criticità legate alla continuità o discontinuità dei servizi erogati, valorizzandone in chiave di business gli effetti, si ha il primo e più evidente indice di misurazione delle performance. Il data center funziona solo se tutti i problemi sono filtrati, analizzati e risolti e se il tempo di downtime è ridotto ai minimi termini. Nel caso delle banche, ad esempio, i drop sulla continuità di servizio hanno un impatto diretto, drammatico e immediatamente misurabile sul business. Se si riescono a monitorare i fattori di rischio legati al downtime, al numero di allarmi, alle situazioni che generano criticità, si può definire una efficace strategia di mitigazione dei rischi che diventa cruciale per ottenere livelli significativi di affidabilità.
Ecco che entriamo nella complessa tematica del Risk Management.
L’adozione e l’utilizzo della piattaforma DCIM puo’ costituire lo strumento principale attraverso cui condurre l’analisi dei rischi e la definizione dei corrispettivi piani di mitigazione.
Nel caso delle banche, del finance, dell’Industry 4.0, la tematica del Risk Management è assolutamente centrale e il DCIM rappresenta lo strumento perfetto per poterla indirizzare.
Questo é vero anche in altri mercati e, in generale, ovunque ci sia una elevata richiesta di continuità e di affidabilità nella erogazione dei servizi, ovunque il data center sia rilevante sul business, come nella fabbrica 4.0.
L’effetto sull’Industria 4.0
Nel caso dell’Industria 4.0 non è nemmeno vincolante che il data center sia direttamente di supporto alla produzione. Le logiche dell’Industry 4.0 chiedono livelli di affidabilità e di performance al data center a prescindere dal fatto che sia in linea con i “clienti”. È il caso del data center Ferrari dedicato alle elaborazioni computazionali aerodinamiche destinate alle vetture di Formula 1. Per tali analisi e calcoli i tempi sono dettati dal calendario delle gare e il prodotto deve essere rigorosamente finito e affidabile entro una certa data al 100%, per un rilascio che non ammette ritardi. Ferrari ha dato vita a un data center specifico per supportare le esigenze di calcolo legate alla Formula 1 con una potenza di calcolo sempre disponibile e una infrastruttura affidabile, agile ed efficiente.