Performance management e capacity planning per la nuova It

Nel mondo sempre più interconnesso, componentizzato e virtualizzato verso cui muove l’It aziendale la qualità dei servizi It dipende da una catena di elementi dalla crescente complessità. Vediamo ciò che si chiede a chi è delegato a gestire le prestazioni e pianificare la capacità di un sistema e ciò che bisogna fare perché questo risponda al meglio ai bisogni dl business

Pubblicato il 03 Lug 2009

mondi100ok

Perché, nel parlare comune, si dica che qualcosa ‘funziona’, bisogna che quella cosa non solo faccia ciò che deve fare, ma che lo faccia bene. In altre parole: le prestazioni non si possono dissociare dalle funzionalità, e perché il sistema informativo di un’azienda, un ente, una qualsiasi organizzazione, funzioni bisogna che le sue prestazioni siano adeguate alle esigenze del business. Esigenze che crescono sempre più: se nel mondo dell’e-business un cliente si perde o si guadagna per lo scarto di un click, rallentamenti e cadute nel funzionamento del sistema informativo hanno effetti deleteri sull’attività di ogni impresa.
Sebbene il buon funzionamento di un S.I. dipenda da molti fattori, a partire dalla qualità dei processi aziendali che deve servire, nel mondo delle architetture client-server (il che significa fino a un passato recente e che in molte aziende resiste ancora), l’incremento delle prestazioni passava per il potenziamento delle capacità di elaborazione, storage e rete; in base alla semplice equazione: più capacità = più performance. Ora, pur restando, come è ovvio, la capacità alla base delle prestazioni, il quadro sta cambiando.
Negli ambienti sempre più interconnessi, componentizzati e virtualizzati verso cui evolvono i sistemi informativi aziendali, le prestazioni di ogni singolo servizio It sono il frutto di un’articolata catena di elementi ciascuno dei quali ha proprie prestazioni e capacità. Se vogliamo che il sistema funzioni bene occorre saper gestire le prestazioni e pianificare la capacità di ciascuno di questi elementi. Un compito irrinunciabile, date le esigenze di business di cui si è detto, ma che stante la rapida crescita del numero dei componenti, sia applicativi sia infrastrutturali, interessati dai processi aziendali, si fa sempre più difficile.
Un primo elemento di complessità che va ad impattare sul performance management & capacity planning (attività diverse ma così interdipendenti da non poter essere trattare disgiuntamente) è quello derivante dai processi di consolidamento dell’infrastruttura. Secondo una ricerca condotta da Gartner per la Data Center Conference 2008, il 39% delle organizzazioni ha consolidato o sta consolidando i propri data center e il 33% ha deciso di farlo. I perché sono noti e non staremo a ripeterli, ma è un fatto che a fronte degli attesi vantaggi in termini di Tco ed ottimizzazione delle risorse e flessibilità nei confronti dei servizi al business, si va a creare una struttura dalla complessa topologia fisica e logica le cui capacità e prestazioni non sono né prevedibili né gestibili senza un approccio sistematico al problema ed adeguati strumenti di monitoraggio.

Virtualizzazione e complessità
Ma soprattutto, la strada del consolidamento è quella che porta alla virtualizzazione. Ed è questa la vera sfida. Infatti, i diversi livelli di astrazione introdotti dalla virtualizzazione delle risorse infrastrutturali consentono non solo di scomporre e ricomporre le risorse disponibili in funzione delle richieste dei processi di business, ma anche di considerare diverse fonti di fornitura. Per esempio, ricorrendo a risorse di elaborazione o di storage fornite come servizio da provider esterni. Tutto ciò moltiplica la reattività e flessibilità della funzione It, ma al prezzo di un tremendo aumento della complessità relativa al capacity planning, e quindi del performance management. Come fare per pianificare, misurare, prevedere e garantire un costante livello prestazionale in ogni configurazione resa possibile dalla virtualizzazione dell’infrastruttura? Senza metodologie e strumenti in grado di affrontare la complessità introdotta dalla server e storage virtualization, i risultati attesi da quest’ultima rischiano di essere annullati.
All’aumento della complessità dell’infrastruttura, si somma anche quello delle applicazioni, le cui architetture si si sono spostate da un’impostazione monolitica ed altamente integrata alle piattaforme hardware verso una organizzata a componenti ‘loosely coupled’, orientata a funzionare in ambienti virtualizzati. La conseguenza è che i modelli costruiti dai capacity planner per le applicazioni in architettura client-server non sono più adatti alle applicazioni componentizzate per la Soa e il Web 2.0. Non solo: all’orizzonte delle opzioni per gli It manager si stanno già affacciando i nuovi modelli applicativi basati su servizi di cloud computing. Ciò moltiplica ulteriormente la complessità di una gestione end-to-end delle prestazioni dei servizi It.

Quali obiettivi e quali operazioni
L’inevitabile conseguenza di quanto abbiamo sinteticamente descritto sta, secondo le analisi di Gartner, nella necessità da parte dei responsabili delle operazioni It di creare una struttura dedicata al performance management e capacity planning dotata di processi e strumenti in grado di rispondere a sette punti fondamentali:
1) assicurare e garantire in modo efficace i livelli di servizio concordati (Sla) e gli indicatori di performance stabiliti (Kpi) riguardo la disponibilità e le prestazioni dei servizi It indipendentemente dall’aumento della domanda da parte del business.
2) ottimizzare un piano progressivo d’investimenti It che eviti un sovradimensionamento dell’infrastruttura.
3) modellare le future richieste del business in termini di servizi e d’infrastruttura.
4) fornire al business un modello finanziario in grado di prevedere capitali e costi operativi dei servizi It.
5) darsi un modello di crescita organica che sia indipendente dall’aumento della domanda da parte del business.
6) cogliere l’impatto sull’infrastruttura It dei cambiamenti dovuti a consolidamento, virtualizzazione, manutenzione, correzioni software (patches), aggiornamenti tecnologici e potenziamento delle applicazioni.
7) stabilire quali cambiamenti nella domanda da parte del business possano avere un rapporto elastico o anelastico rispetto all’It.
Gartner però raccomanda, prima di affrontare un percorso di analisi delle tecnologie e del mercato degli strumenti di performance management e capacity planning, di comprendere bene i processi che vi stanno alla base e che, nell’insieme, ne realizzano il ciclo di vita. Questo si compone di quattro fasi. La prima è il Real time monitoring, nella quale si raccolgono i dati su prestazioni della Cpu, uso della memoria, uso della rete, capacità di disco e tempo di risposta delle transazioni. Questi valori, misurati in tempo reale, si confrontano con livelli di soglia prestabiliti, generando allarmi nel caso questi siano violati. A questa segue l’ Historical data analysis, dove i dati raccolti nella prima fase sono analizzati per individuarne i trend. A queste due prime fasi, che possiamo considerare reattive, segue la terza, il Capacity planning, dove in base alle tendenze prestazionali identificate viene elaborata una previsione delle performance secondo i tipici modelli di simulazione ‘what-if’. Infine, nella quarta e ultima fase si provvede al Performance Tuning, con la messa in atto degli interventi necessari alla messa a punto dei vari componenti al fine di dare all’applicazione le migliori prestazioni. Va notato che la terza fase si suddivide in risorse, servizi e business capacity planning a seconda che le previsioni si applichino alla pianificazione delle prestazioni dei componenti infrastrutturali, del livello dei servizi It e della capacità di risorse e servizi di rispondere all’evoluzione degli scenari di business.
Uno strumento tecnologico che Gartner considera fondamentale per abilitare il workflow delle operazioni inerenti al ciclo di vita del performance management e capacity planning è il Performance Management Database (PMDb). Le prestazioni dei componenti infrastrutturali sono infatti monitorate in genere da strumenti dedicati, con tool per ambienti Unix, altri per Windows, altri per la rete; e lo stesso accade per i database. Inoltre, vi sono strumenti di analisi specifici che vengono usati per individuare i colli di bottiglia nel flusso dati, tool di performance per lo sviluppo e il testing delle applicazioni, strumenti di misura dell’efficienza energetica e così via. Tutti questi strumenti sono nati ed operano nelle rispettive nicchie, senza che vi sia un approccio organico che abbia portato ad una architettura dati unificata. Compito del PMDb (la cui realizzazione andrà declinata a seconda delle priorità nella gestione dell’infrastruttura, con versioni più orientate al provisioning delle risorse ed altre più al controllo real-time) è quindi proprio quello di consolidare, normalizzare, correlare ed analizzare tutti i dati provenienti dai diversi strumenti in modo da consentire un performance management e capacity planning che copra l’intero sistema.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3