Un caso certamente di forte impatto per convincere gli scettici sulla sicurezza dei dati sensibili nel Cloud Computing è quello della NASA: un tipico esempio in cui l’ipotesi di una perdita di dati o un’interruzione anche minima dei servizi non può neppure essere presa in considerazione. L’ente spaziale statunitense, come racconta Computerworld, è riuscito nel giro di 22 settimane a trasferire “sulla nuvola” ben 65 applicazioni, primo passo di un intervento imponente che sta proseguendo (al momento le applicazioni in Cloud sono arrivate a 110 in 18 mesi) e coinvolge potenzialmente 1500 siti web rivolti al pubblico e 2000 intranet, extranet e applicazioni.
Oltre ad apprezzare i vantaggi in termini di flessibilità, l’Ente spaziale in questi mesi è riuscito ad acquisire le competenze necessarie a ottimizzare in ottica Cloud le tante applicazioni legacy ancora in uso. Più in generale, tra i benefici viene sottolineata la possibilità di progettare strategie per rendere più efficiente l’accesso alle informazioni da parte del personale, agevolando condivisione e semplificando i flussi di lavoro, con un maggiore controllo complessivo delle questioni legate alla privacy.
L’operazione, descritta dai responsabili della NASA come “un cambio di pneumatici su un’auto in corsa”, al momento è andata secondo la migliore delle aspettative e i risultati sono già tangibili. Tra i principali clienti della piattaforma Amazon Web Services (AWS), l’ente spaziale ha tuttavia ancora molta strada da fare in questa direzione, con migliaia di siti e applicazioni da migrare, come accennato all’inizio. Molto interessante è in particolare l’utilizzo di varie opzioni della piattaforma Cloud di Amazon per i vari tipi di applicazioni.
La scelta di non ricorrere al Private Cloud
Delle 110 applicazioni finora migrate infatti, 60 – in gran parte siti web rivolti al pubblico – sono sul public cloud di Amazon. Altre 40 (tra cui soluzioni di gestione del workflow e che utilizzano dati sensibili) sono sulla “virtual private cloud”, una sezione isolata della piattaforma pubblica di Amazon. E infine 10 applicazioni strategiche, tra cui la rete per l’engineering, che contiene dai 3,5 ai 5 milioni di documenti utilizzati dagli ingegneri dell’ente, sono su Amazon GovCloud, una sezione di AWS dedicata agli enti governativi con forti vincoli normativi e di compliance.
Il progetto Cloud della NASA però ha diversi altri aspetti molto interessanti. Uno riguarda i costi. Secondo un portavoce, già nei primi tempi di adozione il risparmio sulle spese di manutenzione e gestione ammonta a circa il 40% su base annua. Rimarchevole inoltre, la scelta di puntare apertamente su un Cloud pubblico, trascurando per il momento l’opzione Private Cloud aziendale, comunque allo studio nel rispetto delle policy interne soprattutto per quanto riguarda i documenti classificati. In particolare, emerge la convinzione secondo cui i livelli di sicurezza, molto spesso indicati come punto debole dei Cloud pubblici, siano stati considerati allo stesso livello di rischio di una struttura proprietaria. In questo caso le risorse e le competenze necessarie alla gestione di server interni possono essere dirottate verso l’analisi più attenta degli strumenti di difesa adottati presso il provider.
Il problema dei sistemi obsoleti
Tra gli aspetti di migrazione meglio riusciti, il sistema di Content Management ormai in uso da una decina di anni, e da un paio privo di assistenza e aggiornamenti da parte dell’azienda produttrice. A causa di questo, il racconto sul web di eventi impegnativi come l’atterraggio del Mars Science Lab su Marte e la trasmissione delle relative informazioni avevano richiesto un enorme lavoro in gran parte manuale. Grazie a una serie di interventi e la riprogettazione di alcuni componenti, il passaggio al Cloud ha permesso di abbassare la frequenza di aggiornamento dei siti Web da una media di 20 minuti fino a due.
Il problema di come portare in Cloud sistemi ormai obsoleti e non più supportati ha riguardato diverse applicazioni, per le quali c’è stato bisogno di un lavoro di aggiornamento e talvolta di reingegnerizzazione, con un apposito programma di monitoraggio e di sicurezza: un lavoro quindi che è andato ben oltre il semplice “trasferimento” nella Cloud.
Positive le reazioni degli analisti. Per una realtà dove l’avanguardia tecnologica è una necessità, la soluzione adottata viene vista come una via sicura per l’aggiornamento costante degli strumenti, garantendo la necessaria reattività. Apprezzabili inoltre le prospettive di risparmio, con la possibilità di assorbire senza contraccolpi i tagli di bilancio dello Stato o comunque dedicare maggiori risorse alle attività più strategiche.
Dal punto di vista operativo, la migrazione ha richiesto prima di tutto un inventario dei componenti utilizzati, cogliendo l’occasione per accantonare definitivamente quelli inutilizzati o comunque troppo vecchi. Solo una volta completata questa fase è iniziato il vero e proprio trasferimento graduale al Cloud, con un gruppo di lavoro dedicato espressamente a verificare il corretto funzionamento in remoto prima di trasferire anche i relativi dati. Il passaggio successivo è stata l’ottimizzazione. Da una parte, la ricerca o la messa a punto di applicazioni in grado di migliorare le prestazioni, dall’altra verificando l’appropriatezza delle risorse computazionali allocate in precedenza sui vecchi sistemi interni. Apprezzabile in questo caso, come la realtà abbia spesso indicato allocazioni sovrastimate. Si sono appurati da parte di alcune applicazioi impieghi massimi dell’1% delle CPU dei server su cui erano installate: il lavoro di ottimizzazione conseguente ha portato a una riduzione complessiva dei costi per questa voce, superiore al 20%.