Oggi, i dati sono il bene più prezioso per un’azienda. Ne sono consapevoli i cyber criminali che, tramite i ransomware, stanno mietendo un gran numero di vittime, ottenendo importanti introiti con i riscatti chiesti per consentire nuovamente l’accesso alle informazioni prese in ostaggio. Questo nella maggior parte dei casi avviene perché non è stata seguita la regola classica del backup: fare tre copie di sicurezza dei dati, due delle quali su supporti differenti e una su un sito distante, opportunità offerta, per esempio, dal cloud backup.
La regola del 3-2-1 va rispettata
Purtroppo, invece, è spesso ancora una pratica comune quella di effettuare un solo backup locale o, comunque, in qualche modo connesso direttamente alla rete aziendale. Un errore imperdonabile: i cyber criminali, che hanno affinato la tecnica di attacco, prima di “prendere in ostaggio” i dati cancellano o cifrano tutti i backup raggiungibili tramite il network dell’organizzazione. Solo a quel punto avvisano che è in corso l’attacco e chiedono il riscatto. Se si è seguita la regola del 3-2-1, si può rimediare alla situazione ripristinando il sistema in tempi rapidi avviando il recovery dal sito remoto, altrimenti l’unica alternativa è pagare. E il conto può essere ben più salato rispetto alla cifra chiesta per il riscatto.
Infatti, secondo i dati forniti da IBM, un’azienda che è stata vittima di un ransomware deve mettere in preventivo anche un costo di circa di 3,61 milioni di dollari per la gestione della crisi, il blocco delle attività e la risposta all’attacco. Va precisato che è una stima di spesa media, che varia in funzione di una serie di fattori come le dimensioni dell’impresa o il tipo di attività, ma permette di farsi un’idea di cosa si rischia di pagare in aggiunta al riscatto senza un opportuno backup.
Cloud backup per scongiurare qualsiasi catastrofe
Oggi, un modo spesso usato per effettuare una copia di sicurezza dei dati al di fuori dell’azienda è il cloud backup. Questo non solo mette al sicuro dai cyber criminali, ma anche da qualsiasi tipo di disastro, che si tratti di un incendio, di un’inondazione, di un terremoto o di un evento meteorologico estremo. Il successo del cloud backup è confermato dai numeri: secondo Open PR nel 2019 il giro d’affari globale del cloud backup è stato di 1.834,3 milioni di dollari e le previsioni indicano che raggiungerà i 4.229,3 milioni di dollari entro la fine del 2026, con un CAGR del 12,5% nel periodo 2021-2026. Cifre che indicano chiaramente come il ricorso al cloud backup sia in grande crescita.
“Sempre più aziende ci stanno domandando di poter usufruire di servizi di backup geografico tramite gli hyperscaler” afferma Salvatore Ferraro, Head of Presales Office di WESTPOLE. “Facendo leva su di una infrastruttura esterna beneficiamo di una completa ridondanza del dato così da scongiurare qualsiasi tipo di catastrofe sull’ambiente del cliente e di rimediare a un attacco alla sicurezza IT, in particolare ransomware.
Inoltre, un ulteriore vantaggio è costituito dal fatto che è possibile impiegare il repository di un public cloud come fosse un servizio di archiving di una content delivery per spostare – laddove fosse richiesto dal cliente – i dati in un’altra region, per avendoli sempre disponibili. Questo assicura una copia delle proprie informazioni in un cloud differente, geograficamente distante e in un’infrastruttura completamente diversa da quella on premise. E questa copia può essere richiamata soltanto by opportunity, in casi estremi”.
Come affrontare la sovranità del dato
Il cloud backup è, quindi, un mezzo per ottenere in modo semplice, ma efficace, una copia di sicurezza dei propri dati. Tuttavia, il fatto che tale copia sia geograficamente distante può far nascere un problema: quello della sovranità del dato. “Sta nel concetto stesso di cloud che non ci sia un vincolo geografico al repository del dato” sottolinea ancora Salvatore Ferraro. “Questo significa che l’hyperscaler può effettuare il backup in qualsivoglia data center all’interno dell’availability zone in cui è stato contrattualizzato il servizio da parte dell’utente”. In pratica, si può essere certi che la copia di backup sia distante, rimanendo comunque all’interno della regione di pertinenza ma senza che la stessa sia segregata all’interno del paese di origine.
La sovranità dei dati, però, impone il rispetto delle normative della nazione di appartenenza anche nel caso in cui queste informazioni abbiano attraversato i confini nazionali, altrimenti si può incorrere in multe rilevanti. Così sono state prese delle contromisure sotto forma di regolamenti: per uniformare le norme in tema di gestione dei dati sensibili a livello europeo è stato creato il GDPR.
“Noi siamo spesso responsabili del trattamento dei dati per i clienti – precisa Salvatore Ferraro – e gli stessi clienti, nel momento in cui diventiamo il loro gestore, ci chiedono di rispettare una serie di procedure legate, appunto, all’amministrazione dei loro dati, anche nel caso in cui vengano criptati. Questo è un aspetto importante, perché non è semplicemente un problema di essere compliant al GDPR ma anche di riuscire a dimostrare che, attraverso opportune procedure, si riesce a essere efficienti ed efficaci nella gestione del servizio stesso”.
I dati non devono uscire dai confini nazionali
“Oggi, però, è sempre più sentita l’esigenza di avere i dati in Italia” aggiunge Salvatore Ferraro. “Questo è un chiaro requisito espresso dalla Pubblica Amministrazione, che chiede inoltre al cloud provider di essere AGID compliant, ovvero di certificare la propria infrastruttura in conformità con una serie di requisiti organizzativi, di sicurezza ed interoperabilità secondo le disposizioni previste dalla circolare AGID. Per un’organizzazione è importante essere certa che i propri dati e le proprie infrastrutture possano ripartire da qualsivoglia data center all’interno dell’availability zone. E questo per un service provider è comunque un elemento differenziante, un valore che il cliente riconosce”.
D’altra parte, non sono solo gli aspetti normativi a guidare la decisione di tenere i dati dentro i confini nazionali. C’è anzitutto un motivo tecnico: più vicini sono i dati, minore è la latenza. Così ci si assicura che, nel momento in cui dovesse essere necessario un recovery, il tempo impiegato sarà ridotto al minimo o, addirittura, si potrà operare in real time. “Questo, aggiunto al fatto che oggi è più semplice fare il porting dei dati da mainframe su cloud – sostiene Salvatore Ferraro – sta convincendo anche le aziende più restie, come le banche e le realtà del finance, che è possibile affidare parte del business all’esterno. Ovviamente, però, per non limitare in alcun modo la latenza, il provider dev’essere in grado di assicurare determinate performance a livello network e garantire precisi KPI”.
Tre sono meglio di due
Il cloud backup è ormai una pratica consolidata, ma per avere una copia di sicurezza dei dati che sia geograficamente distante non è più necessario usare data center oltre confine. Oggi, la scelta a livello nazionale è ampia e questo, qualora dovesse essere necessario, assicura di avere un ripristino rapido per via della latenza molto contenuta, se l’architettura di rete del service provider lo consente.