L’esplosione del volume di informazioni e l’aumento dei loro costi di gestione costringe le imprese a riconfigurare i processi di data management, con una forte enfasi su backup e sicurezza. Nell'era della digitalizzazione spinta, dove l'intelligenza tecnologica innerva quasi ogni aspetto della società e dell'esperienza quotidiana, la vera sfida per le organizzazioni di qualsiasi dimensione e settore è gestire i dati in modo efficace e sicuro così da generare valore per il business e liberare risorse da destinare ad attività più strategiche per l'azienda. Sono questi i temi al centro dell’incontro Breakfast con l’Analista organizzato di recente da ZeroUno, in collaborazione con Fujitsu e Intel, dal titolo Verso un data management efficiente e sicuro.
L'articolo continua nella pagina seguente
*BRPAGE*
(segue dalla pagina precedente)
In apertura di dibattito, Stefano Uberti Foppa, direttore di ZeroUno, porta subito l'attenzione sulla crescita preoccupante e continua dei dati, in termini di volumi, valore, varietà, nonché velocità di archiviazione, disponibilità e analisi. Citando Gartner, il trend viene messo in relazione con la convergenza di fenomeni “disruptive” (ma dall’alta potenzialità in termini di flessibilità e nuove opportunità di business) quali cloud, mobility e social: “Usufruire dei dati in modalità as-a-service, attraverso dispositivi mobile e mediante la condivisione sui social media – precisa Uberti Foppa – è quel nesso di forze che, unitamente a soluzioni di analytics, secondo Gartner, guideranno i progetti It dei prossimi anni, al fine di creare un reale vantaggio competitivo. Per le imprese, diventa cruciale la capacità di gestire il patrimonio informativo alla luce dei nuovi trend, sviluppando opportune strategie di sicurezza e backup, ma anche e soprattutto definendo precise policy di archiviazione dei dati e profilazione degli accessi”.
La sicurezza è un work-in progress
In questo scenario, la tecnologia diventa il fattore abilitante per il raggiungimento degli obiettivi di business, in un percorso evolutivo che deve essere monitorato di continuo e rimesso periodicamente in discussione.
“Un approccio corretto alla protezione del dato – esordisce Riccardo Zanchi, partner di NetConsulting– richiede interventi continui, sia perché le esigenze di business sono costantemente in fieri sia per lo spostamento progressivo del perimetro aziendale: se prima la sicurezza veniva applicata a livello di server e pc, oggi va infatti estesa a una pletora di device differenti, dagli smartphone ai telefoni Ip, tenendo conto anche di fenomeni quali Byod, cloud e Internet of Things, che possono generare nuove vulnerabilità. Un altro tema fondamentale è la compliance, che va considerata non solo alla stregua di obbligo normativo, ma come elemento di riferimento di partenza per lo sviluppo di un piano di sicurezza omnicomprensivo, che culmina con iniziative di disaster recovery e business continuity”.
Secondo l'analista, la sicurezza deve essere di tipo preventivo (“mai aspettare di sperimentare il rischio per avviare interventi di protezione”) e partire dall'analisi delle reali necessità di conservazione e disponibilità delle informazioni, per evitare inutili sprechi di risorse. Le diverse tipologie di dati, infatti, richiedono modalità, tempi e spazi di archiviazione e gestione tra loro differenti: l’obiettivo è sviluppare strategie differenziate, all’interno di un unico progetto olistico di governance.
Strategie differenziate, una sola governance
A questo proposito, l'esempio portato da Pier Giorgio Cosma, Responsabile Architetture e Innovazione Tecnologica di Rcs Mediagroup, è emblematico: “Per gestire i problemi di spazio legati all'archiviazione dei dati, abbiamo iniziato a ragionare in termini di applicazioni core e non core: la posta elettronica, ad esempio, è considerata una commodity e quindi abbiamo deciso di demandarne la gestione e l'archiviazione in esterno. Grazie al cloud, liberiamo i nostri sistemi informativi da carichi operativi e di investimento aggiuntivi. Ben diversa, invece, è la questione che riguarda l'Erp, per cui gestiamo internamente le attività di backup e disaster recovery. Il livello e le tecnologie di sicurezza vanno tarate in base alle necessità di business e ai vincoli di costo: non tutte le tipologie di informazioni richiedono lo stesso grado di oculatezza”.
L'esperienza di Pierpaolo Crovetti, Cio di Brembo, invece, procede in direzione opposta: “Per noi, realtà manifatturiera, le email hanno un alto valore strategico perché afferiscono alla tutela del know how aziendale, quindi dedichiamo tutto lo spazio e le tecnologie necessari alla loro archiviazione. Da una Business Impact Analysis effettuata, abbiamo rilevato che il sistema di posta elettronica deve avere Rto (Recovery time objective) e Rpo (Recovery point objective) equivalenti all'Erp. Parlare di best practice è riduttivo, perché ogni settore e ogni azienda ha delle specificità che vanno gestite nel modo più consono al caso”.
Anche Graziella Dilli, Cio di Arpa Lombardia, concorda sulla necessità di strategie di sicurezza e backup differenziate a seconda della tipologia di informazioni: “Abbiamo fatto una distinzione tra dati e processi critici e non: in quanto azienda pubblica, le mail sono uno strumento di comunicazione importante, ma per riuscire a gestire al meglio le problematiche di storage, abbiamo optato per soluzioni cloud. Nel nostro caso, c'è un problema di 'pervasive data', perché abbiamo una rete di sensori distribuita sul territorio da cui provengono tantissime informazioni ambientali (ricordiamo che Arpa sta per Agenzia Regionale per la Protezione dell'Ambiente). Sulla base dei dati raccolti, i ricercatori possono elaborare modelli predittivi sullo stato di salute di acqua, aria, suolo eccetera: più ampio è lo storico a disposizione e maggiore sarà l'accuratezza delle analisi, quindi è molto difficile convincere i ricercatori a rinunciare ai dati, con il risultato di complicare le attività di archiviazione e backup”.
Negoziare tra esigenze di business e di budget
Da questa prospettiva, ecco che ancora una volta acquista un ruolo centrale la capacità dell’It di sapere sviluppare un adeguato demand management e capacità relazionali con il business, al fine di definire correttamente modalità di utilizzo e conservazione delle informazioni. Il coinvolgimento delle Lob (e l’abile negoziazione tra soddisfazione delle richieste e contenimento dei costi) è essenziale per la definizione di un piano efficace di data management, che tenga conto della razionalizzazione di spazi e costi.
“Come banca online – interviene Luciano Maiorana, Responsabile Planning Ict di Finecobank – siamo soggetti a un Rto molto stringente, sia per ragioni di compliance normativa sia perché, non avendo sportelli e filiali, dobbiamo garantire una disponibilità del sito Internet 24×7. Non possiamo permetterci interruzioni di servizio e questo impone la scelta di tecnologie di backup e disaster recovery all'avanguardia. In una situazione già complessa, il marketing ci ha chiesto di rendere disponibili dal portale lo storico dei clienti per un arco temporale di dieci anni, ma attraverso l'analisi delle interrogazioni effettuate dagli utenti sui propri conti correnti e dossier titoli, abbiamo rilevato che quattro anni era una finestra più che sufficiente per soddisfare le richieste”. Così, dati alla mano, i desiderata del business, in un confronto costruttivo, sono stati arginati, a tutto vantaggio di una strategia di gestione delle informazioni più snella ed efficace. Come avverte Maiorana, “in questo contesto il confronto periodico con il management è essenziale per verificare le mutate esigenze interne ed esterne”.
Contenimento dei costi, imperativo kantiano
La mediazione tra richieste degli utenti, necessità architetturali e razionalizzazione dei costi fa parte del quotidiano anche nelle strutture sanitarie della Fondazione San Raffaele, come racconta la responsabile applicazioni – progetti e gestione Annarosa Farina. “Per la nostra tipologia di attività – spiega – la retention dei dati si lega al tema dell'accesso alle informazioni sul punto di cura: c'è stato un lungo braccio di ferro con gli utenti clinici che pretendevano la disponibilità online di tutto lo storico dei pazienti, scontrandosi con i vincoli di sistema e di budget. Siamo scesi quindi a un compromesso adottando strategie e tecnologie differenziate per la conservazione dei dati provenienti da applicazioni di digital imaging (disponibili a sistema per un arco temporale di cinque anni, altrimenti recuperabili dai dispositivi jubox dove sono conservati), soluzioni verticali, gestionale eccetera. Ad esempio, per le attività di ricerca sui genomi, salviamo su disco solo i dati semilavorati e non quelli con granularità molto fine, mentre cerchiamo di fare economie di scala adottando le stesse piattaforme e procedure di archiviazione per i dati dell' Erp e di alcuni applicativi specifici del settore. Rapportarsi con i livelli di servizio desiderati dagli utenti è un lavoro di tutti i giorni: spesso manca la consapevolezza dell'impatto economico e organizzativo che possono avere determinate richieste, ma il nostro imperativo kantiano alla fine è sempre il contenimento dei costi”.
In società più piccole, che si trovano a dovere gestire pochi terabyte di dati, invece, tale obiettivo viene perseguito attraverso una strategia di sicurezza unica e coerente, a prescindere dalle diverse tipologie di informazioni: è quanto avviene, ad esempio, presso il Consorzio Corepla, come illustrato dal responsabile dei sistemi informativi Silvio Sorrentino.
Gestire il dato: quale tecnologia?
Ma quali sono le tecnologie più adatte all'implementazione di una corretta strategia di data protection? Secondo Zanchi, la via è procedere attraverso una graduale ottimizzazione delle risorse e un archiving intelligente, adottando tecnologie efficienti in termini di performance, efficaci per il raggiungimento degli obiettivi di business e flessibili così da adattarsi rapidamente al cambiamento. Il consiglio dell'analista è integrare soluzioni di sicurezza software e hardware, puntando non solo sugli applicativi, ma anche sulle appliance.
Queste tecnologie, infatti, possono abilitare modelli di archiviazione più efficaci rispetto al passato relativamente alle diverse profilazioni di utenti, nonché in relazione alle differenti tipologie di dati da gestire. Ed è qui che si inserisce la visione di Fujitsu e Intel sul tema. “Nel 2012 abbiamo commissionato una survey su un campione di 150 organizzazioni nazionali con l'obiettivo di identificare lo stato delle tecnologie di archiviazione, backup e disaster recovery in uso, nonché le future aree di investimento in questi ambiti – dichiara Denis Nalon, portfolio & business programs manager di Fujitsu Technology Solutions -. Il fatto che ci sia un ricorso sempre più veloce e frequente a nuove tecnologie lascia supporre che in questo ambito ci siano ampi margini di miglioramento: le nuove soluzioni possono quindi offrire vantaggi operativi senza precedenti anche in un'ottica di ottimizzazione dell'esistente”. Secondo Fujitsu e Intel, la roadmap corretta e sostenibile per una strategia coerente di data management, in grado di minimizzare gli impatti operativi e ottimizzare il Tco, prende avvio dalla virtualizzazione e dal consolidamento dei sistemi per poi spostare gradualmente la gestione del dato dal software di backup a un’appliance intelligente per la data protection. In questo modo, il software di backup viene utilizzato per la gestione del processo e l’appliance per l’esecuzione del data handling. Lo step successivo è separare la gestione logica di archiviazione e backup, consolidando al tempo stesso l’infrastruttura hardware sottostante. Infine, bisogna consolidare lo strato software utilizzando suite altamente integrate. Nello sviluppo di questo percorso evolutivo, la partnership con Intel gioca un ruolo di primo piano, come precisa il marketing development manager dell’azienda Marco Soldi : “L'architettura aperta dei nostri processori sta prendendo ampiamente piede anche nel mondo dello storage, garantendo flessibilità e performance a supporto del processo applicativo. Sono sistemi dotati di intelligenza a bordo, con funzionalità di protezione native (nel 2011 abbiamo comprato McAffee proprio per acquisire know-how sulla sicurezza), che si adattano all'ambiente server così come al mondo mobile, permettendo continuità di processo e sviluppo indispensabili per dare valore all'utente finale”.
Come scegliere il fornitore: il consiglio dell'analista
Rimanendo sul fronte dell'offerta, viene infine da chiedersi quali siano i criteri con cui l'azienda dovrebbe scegliere il fornitore. Secondo Zanchi non ci sono dubbi: il partner deve essere valutato in base alle competenze oggettive e al livello di specializzazione, ma anche rispetto alla capacità di capire le esigenze e i processi aziendali nel loro complesso, integrando la sicurezza in un disegno It e strategico globale. Come già detto, infatti, bisogna sempre tenere a mente che “la security non è un’isola in mezzo all’oceano, ma in un arcipelago”, dove tutte le componenti, dalla protezione delle reti e degli end-point alle iniziative di backup e disaster recovery, devono concorrere a un progetto complessivo e di concerto con le esigenze aziendali.
Concludendo, come ricorda Uberti Foppa, “la tecnologia può essere utilizzata come elemento per semplificare i processi di data management e governare la complessità: la razionalizzazione e la standardizzazione sono indispensabili per contenere i costi, realizzare economie di scala, liberare risorse a valore da destinare a progetti strategici. Se oggi le tecnologie per fare questo sono disponibili, è tuttavia più che mai indispensabile una strategia di data optimization coerente con le diverse articolazioni di sviluppo del business”.