Qualsiasi azienda, oggi, è ascrivibile di diritto alla categoria “data driven”. Non importa quale sia il settore in cui opera o le sue caratteristiche: le informazioni, nel mondo dell’impresa, sono diventate centrali e la stessa capacità operativa dipende necessariamente dalla loro disponibilità.
Una considerazione, quella della centralità dei dati, che giustifica ampiamente la preoccupazione legata alla possibilità di subire un incidente di cyber security. “Ormai le aziende sanno di dover mettere in conto l’eventualità di un attacco in grado di bloccare la loro attività” sottolinea Alessio Pennasilico, membro del Comitato Scientifico Clusit, nel corso della tavola rotonda di Bologna organizzata da ZeroUno in collaborazione con Pure Storage a fine novembre. “La domanda che ci si deve porre, in pratica, non è ‘se’ subiremo un attacco, ma ‘quando’ lo subiremo”.
Il vero livello di preoccupazione, però, è quello dell’impatto legato agli attacchi. Secondo l’ultimo rapporto Clusit, più dell’ottanta percento degli attacchi denunciati hanno avuto un impatto elevato o critico. “I casi con impatto basso sono stati solo lo 0,2%. Ormai stiamo pensando di eliminare del tutto la categoria” spiega con una certa ironia Pennasilico.
Muoversi in un contesto complesso
A rendere ancora più complicata la governance dei dati aziendali e anche l’elevato livello di complessità delle infrastrutture IT, aspetto con il quale devono fare i conti tutte le aziende. L’adozione sempre più frequente di soluzioni ibride, basate su sistemi on premise e multicloud, mettere le imprese nella condizione di dover gestire una enorme quantità di dati provenienti da fonti diverse. All’interno di tutto questo, la protezione dei sistemi “critici” rimane alla base di una strategia di governance efficace, soprattutto a livello di sicurezza.
In uno scenario tipico, infatti, gli stessi dati generati a livello operativo vengono utilizzati per altri scopi e in ambiti differenziati. Come emerso nel corso della tavola rotonda, cui hanno partecipato realtà operanti in diversi settori – tra cui quello finanziario e sanitario – la loro gestione non richiede solo procedure complesse e un elevato livello di automazione, ma pone anche di problemi nell’implementazione dei sistemi di Disaster Recovery.
In altre parole: le aziende si trovano a dover gestire una enorme mole di dati in ambienti diversi e la previsione di un sistema che consenta di ripristinarne la disponibilità in tempi brevi nel caso di un attacco informatico rischia di avere un impatto enorme sia a livello di costi, sia a livello di effort per gli addetti IT.
Sempre più spesso, di conseguenza, la scelta è quella di segmentare i differenti ambiti operativi a seconda delle esigenze e prevedere una strategia a “geometrie variabili”, in cui gli investimenti per gli strumenti di backup e ripristino sono graduati a seconda del contesto.
Velocità e sicurezza dove serve davvero
Nello scenario descritto, anche le performance giocano un ruolo fondamentale. “Il tema delle prestazioni in ambito sicurezza è fondamentale. La scelta di Pure Storage di orientarsi verso la tecnologia all flash, per esempio, non è dettata solo dalla volontà di offrire hardware performante” spiega Paolo Fontana, Country Manager di Pure Storage. “L’adozione di tecnologie evolute garantisce anche un recupero dei dati estremamente rapido in caso di incidente e, di conseguenza, una mitigazione dell’impatto a livello di business continuity”.
Insomma: sia le aziende che il settore tecnologico stanno si orientando per interpretare la complessità della governance dei dati attraverso soluzioni differenziate, in cui tecnologie ad hoc orientate alla sicurezza vengono implementate in ambiti ben definiti, individuati come “critici”.
In futuro, secondo Fontana, queste tecnologie potrebbero espandere il loro raggio di azione. “L’abbattimento dei costi, dovuto principalmente all’innovazione a livello di densità delle memorie utilizzate, apre all’adozione ‘normale’ di strumenti che offrono prestazioni normalmente utilizzate solo per i servizi business critical. Parallelamente, la logica dei costi affrontata con una formula ‘as a service’ consente alle aziende di garantire una governance del dato con i massimi livelli di sicurezza senza dover affrontare investimenti troppo impegnativi” spiega.
L’AI come acceleratore del fenomeno
Se questo è il quadro attuale, nel prossimo futuro questa tendenza è destinata a radicarsi ulteriormente. A contribuire, manco a dirlo, la “solita” intelligenza artificiale. Come hanno sottolineato i partecipanti alla tavola rotonda, l’uso dell’AI (generativa e non) richiede un accesso costante ai dati aziendali e l’ambiente naturalmente deputato a questo tipo di attività è il cloud.
Tuttavia, logiche di sicurezza, di efficienza (e di buon senso) portano i responsabili IT a eseguire normalmente una duplica dei dati. Una procedura che si rende necessaria anche per esigenze di compliance, ad esempio quando è necessario anonimizzare i dati prima di poterli elaborare.
L’intelligenza artificiale, inoltre, svolge un doppio ruolo. Se da una parte contribuisce a rendere ancora più centrale il dato, impattando anche sulla quantità di informazioni generate ed elaborate, dall’altra mette a disposizione strumenti estremamente utili per aumentare il livello di sicurezza proprio nell’ambito storage.
“Una nuova funzionalità che abbiamo introdotto utilizza l’AI di nuova generazione per monitorare il funzionamento dei dispositivi di storage” spiega Paolo Fontana. “Nel caso di un attacco ransomware, per esempio, i responsabili IT riceverebbero immediatamente un alert che gli permetterebbe di reagire all’attacco con tempestività”.