Portato alla ribalta dalla pandemia, il cloud è considerato il grande protagonista dell’IT moderno, un’imperdibile opportunità per costruire architetture performanti, ottenere dati utili al business, ripararsi dagli incidenti e semplificare l’esistenza. Ma è davvero la panacea di tutti i mali? E soprattutto chi e cosa si nasconde dietro le quinte?
“C’è vita sul cloud” è il podcast di ZeroUno, realizzato in collaborazione con Techedge (diventata Avvale a maggio 2023), che racconta la nuvola direttamente dalla prospettiva di chi la fa, svelando il lato umano dell’as-a-service. Così tra sviluppatori e sistemisti incompresi, paladini del disaster recovery e pescatrici del data lake, emergono i falsi miti che circondano il pianeta cloud.
1. Il cloud può scalare all’infinito
La prima leggenda concerne la scalabilità illimitata delle risorse cloud. Tra i vari mantra, infatti, la nuvola viene descritta come ambiente flessibile, dinamico ma soprattutto capace di crescere a dismisura (e ridimensionarsi all’occorrenza). Tuttavia, la realtà è molto lontana e l’elasticità teorica non va confusa con la fattibilità. Quindi attenzione al sovraccarico di aspettative dei committenti perché c’è il rischio di naufragare.
Come racconta Marcello Rossi, Deputy Practice Manager Mobile e Cloud di Techedge, c’era una volta il Vasa, un galeone svedese costruito nel 1600 con grandi ingerenze del re. Nel pensiero del sovrano, infatti, la nave doveva manifestare il potere militare nazionale, pertanto fu allargata, equipaggiata di cannoni e abbellita oltremisura. Il risultato? Il veliero affondò a 120m dalla partenza. «Parimenti – ammonisce Rossi – l’architettura cloud va costruita perché possa crescere armoniosamente nel tempo arricchendosi di funzionalità, ma restando comunque sempre a galla!».
2. Si fa presto a praticare il DevOps
Il falso mito numero 2 è la facilità di attuare le pratiche DevOps, che dovrebbero instillare una sana, reciproca e amorevole collaborazione tra sviluppatori e sistemisti. Bene, mettete allo stesso tavolo un esperto di applicazioni e uno di infrastrutture per scoprire quanto l’auspicata collaboration sia una missione critica. Dopotutto, bisogna fare convergere due mondi differenti, due categorie di professionisti che parlano linguaggi diversi e si guardano storto.
Gli strumenti DevOps per automatizzare la pipeline di gestione del software sono fondamentali, soprattutto in ambienti cloud ramificati, complessi e caratterizzati da migliaia di microservizi, ma non bastano a fare la rivoluzione.
«Dietro alle tecnologie DevOps – dichiara Stefano Nava, Cloud managed services consultant di Techedge – è necessario il materiale umano per generare valore e soprattutto interconnettere le due parti, infrastrutturale e applicativa. La comunicazione è tra due persone, uno sviluppatore e un sistemista».
Ma c’è una formula magica perché i due mondi si parlino senza crisi di rigetto?
«Se esiste – suggerisce Marcello Rossi, Deputy Practice Manager Mobile e Cloud di Techedge – è di tipo organizzativo. Chiaramente le tecnologie servono, le persone sono l’ingrediente fondamentale, ma la struttura organizzativa deve avere recepito e favorire le pratiche DevOps. Il team preposto alla delivery del prodotto deve includere tutte le competenze necessarie al progetto. Separare i team di Sviluppo e Operations in due entità diverse è un’aberrazione che può causare incidenti».
Se il DevOps sta trovando una quadra o almeno ha una ricetta segreta, il prossimo passo andrà verso il DevSecOps e il gioco riprenderà daccapo.
3. Il data lake è la bacchetta magica
La terza favola costruita attorno al cloud riguarda il data lake come strumento per semplificare la gestione dei dati in risposta al Big Data Boom. «Sostanzialmente – spiega Micol Rigamonti, Data integration consultant di Techedge – il data lake è un repository centralizzato che permette l’archiviazione di file strutturati e non. Il vantaggio principale è l’accesso diretto attraverso strumenti di business intelligence e di machine learning senza la necessità di avere un datawarehouse».
Fin qui tutto bello, ma qual è la parte difficile? «Il vero problema – interviene Giulia Baroni, Data architecture consultant di Techedge – è come si gestiscono i dati. Immaginiamo di avere un lago dove immergiamo tantissimi pesci di specie diversa. Un giorno improvvisamente ci svegliamo e vogliamo esattamente quel pesce. Mica facile riuscirci al primo tentativo, no? Bisogna quindi definire a priori una struttura dati ben organizzata per ottimizzare le ricerche».
Inoltre, per mantenere il data lake funzionale e ottimizzato, è necessario eseguire pulizie periodiche così da eliminare i dati non utilizzati, spostandoli in archivi separati.
Insomma, il data lake non è propriamente la bacchetta magica che rende tutto facile, come leggenda vorrebbe. I nuovi strumenti possono semplificare la gestione dei big data, ma a monte servono organizzazione e ottimizzazione, anche per garantire la sicurezza degli accessi senza compromettere la velocità di delivery delle informazioni all’utente finale.
«Quando si parla di dati che passeggiano nel cloud – conclude Baroni – bisogna stare attenti. Dobbiamo costruire il nostro castello su solide fondamenta, non sulla sabbia. Uno storage deve essere chiuso rispetto agli accessi anonimi e andrebbe implementata la segregazione dei dati».
Insomma, il data lake è molto facile per chi lo usa, ma meno per chi lo costruisce e manutiene.
4. Dalla fonte dati all’analisi, basta un clic
Secondo un’altra convinzione diffusa, grazie agli strumenti cloud, organizzare, gestire e visualizzare i dati è un gioco da ragazzi. Ma cosa succede realmente nel percorso dalla sorgente dati al cruscotto di business intelligence?
«Il lavoro – spiega Giulia Baroni, Data architecture consultant di Techedge – è tanto prima di arrivare alla “bella copia” dei dati che viene esposta agli utenti finali. Ad esempio, bisogna capire preliminarmente quali dati inserire nella reportistica, dove prenderli, come calcolarli e aggregarli. Bisogna insomma definire le sorgenti e il target finale».
In mezzo, tra i punti di partenza e di destinazione, c’è un labirinto di opzioni dove entra in gioco l’architettura e si definiscono le tecnologie da utilizzare. «Il cloud – riprende Baroni – mette sul piatto tantissime opzioni per arrivare allo stesso risultato e bisogna scegliere la più appropriata al caso».
Ma il bello deve ancora venire, perché una volta scelta la tecnologia bisogna capire se e come queste soluzioni si parlano. Infine, il dato inizia il suo viaggio nel cloud attraverso un’architettura su tre livelli: bronze (dove si raccoglie il dato grezzo); silver (dove viene salvata una copia pre-elaborata del dato); gold (dove i dati vengono aggregati e resi disponibili per gli strumenti di BI e reportistica).
«Il cloud – dichiara Micol Rigamonti, Data integration consultant di Techedge – offre una gamma di strumenti più ampia rispetto all’on-premise. Ciò permette di trovare più facilmente la tecnologia giusta, ma aumentando le opzioni cresce anche il rischio di errore. Tuttavia, il cloud permette di fare sperimentazione delle diverse soluzioni perché non bisogna acquistare licenze o infrastrutture particolari. Insomma si può testare, quindi decidere se proseguire o tornare indietro con un costo contenuto».
5. Con il cloud, il Disaster Recovery non serve
Il disaster recovery è un’opzione che ci si augura non si debba mai affrontare, ma occorre essere pronti. Anche se il cloud è ritenuto intrinsecamente più sicuro dell’on-premise, ciò non significa che non necessiti di un “paracadute” in caso di incidente. Anche questo è un falso mito.
«Chi ha una totale coscienza del cloud – sostiene Stefano Nava – Cloud managed services consultant di Techedge -, sa che non deve farci affidamento al 100% sul fronte sicurezza. Non bisogna pensare “Basta, ormai sono nel futuro!”, perché non sempre si possono prevenire gli attacchi e anche il cloud ha bisogno di un piano B».
Ma qual è la migliore tecnologia per effettuare il backup dei dati? È meglio affidarsi alla nuvola oppure optare per la cara vecchia copia su supporto fisico?
Secondo Nava, non esiste una soluzione “fit for all”, dipende dalle esigenze e dallo scenario aziendale specifico. Tuttavia, c’è una regola universale relativa al disaster recovery: bisogna sempre testare l’efficacia del sistema attraverso le simulazioni, anche se ciò significa rallentare l’operatività. Insomma, “a ciascuno il suo DR” ma non senza garanzie.
Trucchi e consigli per padroneggiare il cloud
Analizzando i falsi miti con uno sguardo inedito, il cloud risulta una ghiotta opportunità, ma non scevra di sfide. Ecco perché può tornare utile una serie di consigli dagli esperti.
- Maneggiare con cura. Il cloud ha semplificato moltissimo alcune operazioni: ad esempio, lo spegnimento e l’accensione delle macchine può avvenire in uno solo clic. È pertanto consigliabile evitare distrazioni e leggerezze!
- Attenzione ai limiti. Il cloud offre servizi innovativi, ma mostra anche dei limiti di cui essere consapevoli. Le limitazioni si evolvono nel tempo e bisogna rimanere sempre aggiornati sulle migliorie disponibili per trarne i massimi vantaggi. L’innovazione è infinita, ma il movimento è lento!
- Keep it simple. Tutte le architetture esistenti evolveranno. Non è sbagliato partire dal semplice per raggiungere nel tempo complessità tecniche maggiori. Bisogna studiare tanto senza preoccuparsi che le tecnologie attuali andranno sostituite in futuro. A volte è un processo faticoso, ma anche una grande opportunità. Sbagliato sarebbe restare fermi!
- Automatizzare è bello. È buona pratica investire del tempo nello sviluppo degli script che permettono di accelerare i task ripetitivi, mettendo al riparo dagli errori manuali. Le ore spese saranno ripagate! Inoltre, non dimenticatevi di sperimentare, ma soprattutto di testare, ritestare e ritestare ancora!