Mano a mano che continuiamo ad addentrarci in un mondo sempre più ibrido, garantire un accesso veloce e semplice ai dati non è cosa da poco.
L’83% delle aziende adotterà il cloud pubblico entro il 2020. Quante volte avete sentito variazioni rispetto a questo dato? È faticoso ma vero. Molte imprese di tutti i mercati verticali stanno partendo per un viaggio nel cloud e vi intingeranno i piedi nei prossimi anni. L’obiettivo è quello di trarre vantaggio dai più recenti strumenti e metodologie di sviluppo software.
Io tendo a utilizzare il termine “hybridity” spesso quando aiuto i clienti a navigare in un mondo multi-cloud in cui i dati possono risiedere nel cloud pubblico, on-premise o da qualche parte tra i due. Hybridity si riferisce al mix di due o più cose – ed è proprio quello che sto vedendo sul mercato. I dati continuano a essere conservati per lunghi periodi di tempo, ma non più solo su storage array tradizionali o nastro, ma anche nella nuvola.
Gran parte del valore intrinseco di un’azienda risiede nei suoi dati e più ci addentriamo in un mondo ibrido, garantirne un accesso rapido e semplice non è facile come appare. Ecco alcuni suggerimenti per ottenere un valido cloud data management:
Ridurre il tempo di gestione
L’hybridity dà luogo a due fenomeni: la frammentazione delle applicazioni, poiché i componenti possono ora risiedere on-premise o nel cloud, e l’esplosione dei dati. L’unico modo per sopravvivere con gli attuali budget per il personale IT è gestendo I dati in modo olistico, indipendentemente da piattaforma o luogo, utilizzando architetture dichiarative policy-driven.
Se un framework di questo tipo non esiste ancora, suggerisco di approfittare del viaggio verso il cloud come driver per avviarlo. Consideratelo un fattore critico di successo – il cloud data management significa coerenza e controllo enterprise-level su tutte le piattaforme e le location, a prescindere dalla tipologia di dati. Dettate la logica del data management piuttosto che manipolare manualmente il modo in cui arrivarci e integrate strumenti che si avvalgono di un approccio simile.
Utilizzare l’automazione per applicare la coerenza
La coerenza è fondamentale quando si fa scalare un’infrastruttura. La scalabilità aggiunge molto di più che semplici workload – aggiunge complessità. Considera un modello di infrastruttura ibrida e ti troverai nei pasticci se l’architettura non è stata progettata sin dall’inizio per questo approccio. A differenza delle persone, i computer eseguono le attività allo stesso modo ogni volta. L’automazione permette all’IT di stabilire più facilmente metodologie e procedure standard, riducendo così il management overhead necessario. Questa practice è complementare all’adozione di un approccio dichiarativo al fine di garantire la coerenza necessaria per una reale mobilità dei dati. Sfruttando le API, l’automation tooling può addirittura integrarsi con sistemi esterni di business basati su SLA.
Mobilità e agilità dei dati
Gestire i dati a livello aziendale non è un compito facile. E questo è vero indipendentemente dal fatto che i dati si trovino on-premise, nel cloud, o entrambi. La coerenza è un tema ricorrente in questo articolo, e si applica anche in questo caso. I dati oggi viaggiano all’interno e all’esterno della nuvola pubblica, verso un data center on-premise o possibilmente verso un altro public cloud. Una volta superati gli ostacoli operativi iniziali, è inevitabile incappare in richieste di mobilità e agilità dei dati. Quando si progetta un ambiente greenfield o brownfield ibrido, pubblico o on-premise, è importante pianificare con cura dove l’elaborazione dei dati deve avvenire rispetto a landing iniziale, staging, o lungo termine. Un progetto di successo permetterà ai dati di migrare facilmente da un posto a un altro. Spesso lo vedo realizzato da parte di clienti che creano una common software fabric con robusti API e toolset per l’integrazione dei dati. E’ meglio pensarci prima che rendersi conto che bisogna eliminare i sistemi per i quali abbiamo appena automatizzato e creato le nostre policy dichiarative.
Assicurare un valido backup e recovery nel caso qualcosa vada storto
I cyberattack sono sempre più sofisticati e intelligenti, così come dovrebbero esserlo gli strumenti di protezione e ripristino. L’hybridity incrementa la superficie di attacco: è quindi meglio utilizzare un tool progettato per proteggere e ripristinare workload on-premise e nel cloud e recuperare i dati velocemente. Le soluzioni moderne – che non hanno bisogno di reidratare i workload – sono pensate appositamente per riportare i dati online rapidamente. Sfruttare questo tipo di soluzione può ridurre il recovery time objective (RTO), generando un impatto positivo sul business.
Infine, uno strumento di backup e recovery tradizionale tende ad essere “metadata-poor” il che rende il tool molto limitato. A mano a mano che l’impiego del cloud pubblico aumenta, valutate l’utilizzo di strumenti che accedono, analizzano e diagnosticano i metadata su molteplici piattaforme e applicazioni.
Fate vostri questi quattro consigli per delineare una strategia di cloud data management che vi dia il massimo valore e faccia lavorare al meglio dati e metadati. A prescindere dal luogo in cui i dati si trovino, gestiteli con un approccio olistico policy-driven, automatizzate le operazioni per garantirne la coerenza, create un software fabric comune per svincolare i workload per la data mobility, e assicurate la protezione dei dati.
Rebecca Fitzhugh
Principal Technologist di Rubrik