Unipol – Qualità applicativa e disponibilità dei servizi di business

Generare una nuova visione sintetica delle informazioni tecnico-sistemistiche orientata ai servizi di business e alla percezione utente, introducendo una nuova chiave di lettura e di integrazione dei dati. Un progetto che ha consentito a Unipol di superare la visione tradizionale puramente tecnologica, pur valorizzando gli investimenti passati. Grazie a un nuovo sistema di monitoraggio, Unipol riesce a essere proattiva e ottenere una percezione dal punto di vista degli utenti finali delle performance delle applicazioni core business.

Pubblicato il 02 Nov 2011

“Assicurare la qualità e la disponibilità dei servizi di business è un tema classico dell’It; ho iniziato a sentirne parlare all’Università e quindi sono almeno trent’anni che lo sento ricorrere, anche se con forme e problematiche sempre diverse”. Esordisce così Mario Bocca, Cio di Unipol Gruppo affrontando il tema della qualità applicativa quale elemento di valore strettamente connesso al business. “Tuttavia parliamo di un argomento in continua evoluzione dato che cambia periodicamente il contesto di riferimento, cambiano le architetture e le tecnologie disponibili per il monitoraggio e la gestione e quelle utilizzate nello sviluppo delle applicazioni. Questi fattori vanno sostanzialmente a cambiare ogni volta gli aspetti, anche operativi, della soluzione al problema (la ricerca della qualità e della disponibilità dei servizi It)”, osserva Bocca, “Motivo fondamentale che ha portato Unipol a intervenire sul monitoraggio delle risorse It passando da una vista puramente tecnologica a una più legata al servizio e al concetto di ‘fruibilità utente’ dello stesso”.
Nel caso di Unipol , in particolare, l’introduzione di strumenti e soluzioni specifici per il monitoraggio della qualità e della disponibilità dei servizi It rappresentava la risposta a due esigenze fondamentali:
1) gestione della complessità:  il Gruppo in questi ultimi anni ha vissuto un periodo di grandi cambiamenti : fusioni societarie, riorganizzazioni interne, evoluzioni delle normative di riferimento, che hanno portato a un rifacimento pressoché completo dei servizi informatici, delle infrastrutture e delle tecnologie utilizzate : l’introduzione massiva di tutti questi cambiamenti ha richiesto, di fatto, che anche gli strumenti di monitoraggio e controllo si adeguassero ed evolvessero rapidamente insieme alle infrastrutture per riuscire a mantenere il controllo di un processo così complesso e così rapido di cambiamento ;
2) gestione del cliente:  cambiare voleva dire anche cercare di migliorare la nostra capacità di gestione del cliente e  di riuscire a “misurare” meglio e più rapidamente il livello di servizio da questi percepito in modo da poter intervenire più tempestivamente e in modo più proattivo, migliorando quindi la qualità di erogazione dei nostri servizi.
Vediamo allora quali sono stati i passaggi chiave del percorso di innovazione dell’It di Unipol.

Servizi It più rapidi: oggi, percorso obbligato
I fattori primari che hanno guidato le varie fasi della riorganizzazione e ridefinizione dell’It di Unipol possono essere ricondotte ad alcuni elementi principali: “Primo fra tutti – precisa Bocca – la riorganizzazione del Gruppo con alcune fusioni interne (come Unipol/Aurora), la creazione di nuove divisioni societarie e la necessità di rispondere in modo più efficace alle esigenze di supporto richieste dal business in un contesto di mercato molto più difficile e dinamico di quello degli anni precedenti. Secondo driver, non meno importante, gli adeguamenti alle nuove normative di riferimento sia in campo assicurativo che di privacy e sicurezza. Unipol – continua il manager di Unipol – è una società che opera nel campo finanziario, soggetta a stringenti normative nazionali e internazionali che sono in continuo aggiornamento. Analizzando il sistema It di partenza di alcuni anni fa ci si è resi conto che non era più in grado di supportare i business requirement perché costruito su servizi It basati su tecnologie ormai mature e gestiti attraverso politiche orientate al contenimento dei costi operativi e alla manutenzione dell’esistente piuttosto che alla ricerca di una maggior efficacia di supporto al business”, descrive Bocca. “E l’obiettivo era andare esattamente dalla parte opposta, costruendo nuovi servizi It che, basati su tecnologie più  moderne, rispondessero in modo migliore alle esigenze di efficacia dei risultati (e non solo efficienza dei costi) e quindi a un approccio più orientato allo sviluppo di progetti piuttosto che alla ordinaria gestione della manutenzione dei sistemi esistenti”.
E se sulla carta può sembrare facile, Bocca sottolinea quanto sia complesso avviare un processo di trasformazione di questo tipo: “Gli impatti sono certamente pesanti sulla componente tecnologica, ma il vero ‘scoglio’ è dato dalla componente organizzativa e dalle conseguenze che ne derivano a livello di processi e skill (competenze, ruoli e responsabilità)”.

Una delle sedi dei data center Unipol

Parliamo di un percorso avviato nel 2007, ormai oggi in corso di completamento che ha visto diverse tappe importanti: dalla revisione, potenziamento e aggiornamento delle infrastrutture centrali di elaborazione e creazione di sistemi di monitoraggio It, a progetti di efficientamento dei call center; dall’integrazione dei data center alla revisione di alcune soluzioni applicative, ecc.
Il sistema informativo di Unipol è oggi strutturato su due data center con poli di erogazione dei servizi a Bologna e San Donato Milanese.
Il sistema fornisce supporto alle compagnie assicurative del Gruppo, in particolare a 2.110 agenzie assicurative, 4.550 tra subagenzie e broker, 3.210 agenti, 5.100 dipendenti assicurativi, e alla componente bancaria per quanto riguarda i servizi di rete e di office automation (circa 300 filiali e 2.300 dipendenti) : sono circa 16.000 gli utenti che si connettono alla rete informativa aziendale e che ne utilizzano i servizi.

Monitoraggio: orientamento all’utente
Da un punto di vista tecnologico, l’evoluzione del Gruppo si è tradotta in cambi infrastrutturali (passaggio da sistemi 3270 ad ambienti web based, potenziamento della connettività delle agenzie e della rete interna,  sostituzione dei Pc presenti nelle agenzie, scannerizzazione dei documenti in agenzia, ecc.) ed evoluzioni architetturali (aumento della potenza del sistema Host e dei sistemi server – con scelta della virtualizzazione; passaggio e introduzione della tecnologia Java, ecc.) che erano di fatto necessari per poter realizzare il “cambio di passo” dai sistemi preesistenti.
“Tutto ciò ha comportato l’esigenza di impostare anche un nuovo sistema per la gestione e controllo delle infrastruttture e delle applicazioni. Alcuni sistemi di monitoraggio preesistenti, ancora validi per un utilizzo tecnico specialistico, sono stati integrati con nuovi strumenti, necessari per superare alcuni limiti”, evidenzia Bocca.
“I sistemi precedenti, infatti, erano sostanzialmente ‘specializzati’ per verticali tecnologiche , risultavano complessi da usare e richiedevano personale It esperto, che quotidianamente si trova davanti alla scelta tra monitorare la produzione o seguire nuovi progetti e ottimizzazioni. Inoltre, questi sistemi non erano in grado di generare report e statistiche in modo semplice e automatico. Ma soprattutto, essendo focalizzati su visibilità di dettaglio specifiche di ciascuna ‘componente tecnologica’, offrivano scarse informazioni per fornire una ‘visione di insieme’ del servizio erogato nel suo complesso, supportare il processo di individuazione del livello architetturale del problema e valutare l’entità dell’impatto utente del problema. Tutti elementi a noi, invece, necessari. Il monitoraggio tradizionale per linea tecnologica non è più sufficiente – aggiunge ancora Bocca -. Si rischia di essere poco efficaci nell’individuazione e correzione dei problemi e di non cogliere il reale livello di qualità percepito dall’utente finale”.

Controllare il servizio per essere più proattivi
“Il nostro primo obiettivo era dunque arrivare ad avere una ‘visione di insieme’ del servizio erogato nel suo complesso”, sottolinea Bocca.
Obiettivo raggiunto, anche in questo caso, con un approccio graduale che ha visto, dapprima, l’implementazione di una soluzione unica e globale di Network Management, successivamente una soluzione di Application Performance Management e poi di una di Customer Experience che consentono di definire regole di correlazione eventi, generare automaticamente report e allarmi, integrandosi con altri sistemi di controllo con una vista più tecnica.
Da queste si è poi passati alla “costruzione” di una vista sintetica per “Servizio di Business”, una dashboard che consente di misurare l’andamento nel tempo di indicatori di funzionamento a livello di servizio e di transazione business e di confrontarli con benchmark di riferimento della reale operatività utente, che consentono di misurare in modo oggettivo l’impatto sull’operatività utente delle eventuali problematiche rilevate.
Le soluzioni di monitoraggio sono targate Ca Technologies, mentre la costruzione della vista sintetica è il risultato di una stretta collaborazione tra gli sviluppatori interni ad Unipol e i tecnici di Ca Technologies che, partendo dalle necessità di business dell’azienda utente, hanno lavorato insieme per identificare e sviluppare ad hoc le funzionalità e le caratteristiche tecnologiche necessarie per arrivare ad avere uno strumento che fosse modellato esattamente sulla base dei requirement di Unipol.
Attualmente la soluzione di monitoraggio dei servizi It è applicata al controllo di: rete, host, server critici e alle  principali applicazioni business del Gruppo.
“Il nuovo sistema di controllo ci aiuta ad avere una rappresentazione di sintesi della qualità del servizio erogato, declinata nelle principali componenti architetturali, per individuare più facilmente situazioni problematiche e intervenire rapidamente per la loro correzione”, conclude Bocca. “Inoltre, riusciamo ad avere maggiori informazioni sulla localizzazione di un malfunzionamento, sulla sua estensione, e sul relativo impatto sul servizio complessivo erogato; ottenere una percezione dal punto di vista degli utenti finali delle performance delle applicazioni core-business, per misurare la qualità del servizio e verificare il loro grado di soddisfazione; misurare metriche di disponibilità e performance del servizio nelle sue macro-componenti, per contribuire all’aumento di efficienza delle applicazioni in esercizio e al controllo dei costi; attivare allarmi a fronte di eventi che impediscono o limitano l’operatività degli utenti, in particolare di Agenzia (per esempio problemi di connettività); valutare gli impatti di un change tecnologico o applicativo sulle performance del sistema e del business; evidenziare un lento degrado di performance nel tempo e risolverlo in modo proattivo”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2