Cloud computing, la ‘grande svolta’ dell’It?

Spezzare il binomio tra informazione E tecnologia in modo da poterci occupare solo di ‘cosa’ vogliamo fare senza preoccuparci del ‘come’. Mettere tutto, hardware, software, applicazioni e dati, sulla grande ‘nuvola’ che è oggi internet, dalla quale estrarre i servizi desiderati quando ne abbiamo bisogno. Un sogno? Niente affatto: una possibilità molto concreta che, anche se non possiamo ancora dire quando e in che misura, sta per imprimere all’It come la conosciamo oggi una svolta epocale che cambierà lavoro, organizzazione e modelli di business sia degli utenti sia dei fornitori.

Pubblicato il 25 Giu 2008

cover100

Quando in un grafico illustrante l’architettura di un sistema occorre rappresentare un’entità cui il sistema fa riferimento, ma che risulta esterna ad esso, il simbolo che viene usato è una nuvoletta. E siccome la più comune di queste entità esterne è l’Internet, ecco che questa, assieme alle intranet ed extranet (che, ricordiamo, sono reti chiuse, o aperte solo a certi gruppi di utenti, ma che si presentano al browser come se fossero parte dell’internet globale) è identificata dalla nuvola. Ed è forse questa la ragione per cui, trattandosi di un qualcosa dove la Rete ha un ruolo fondamentale, si è battezzato ‘cloud computing’ quello di cui stiamo per parlare.
Abbiamo usato il termine ‘qualcosa’ perché una definizione chiara ed univoca di cloud computing non c’è. Chi ci segue sa che cerchiamo sempre, quando affrontiamo un tema nuovo, di definirne i concetti ed il campo di applicazione allo scopo, come è ovvio, di facilitare ogni successivo discorso focalizzandolo in un ambito preciso. Ora, sul cloud computing di definizioni ne abbiamo trovate più d’una, ma tutte diverse e nessuna che non ammettesse d’essere limitativa, che non richiedesse una spiegazione e, soprattutto, sulla quale tutti fossero d’accordo. Se è vero che ‘nomina sunt rerum’, ci si perdoni il gioco di parole, ma il cloud computing pare davvero nebuloso.
La mancanza di una definizione riconosciuta e condivisa non è una questione accidentale. Né si può attribuire solamente al fatto che il termine sia così recente (secondo Wikipedia, si è diffuso solo a metà del 2007) da non aver ancora catalizzato attorno a sé da parte degli analisti del settore una precisa corrente di pensiero. In realtà quello che il cloud computing rappresenta, o quanto meno propone, comporta tali e tante implicazioni sul fronte dell’It intesa come realtà economica e industriale, da far sì che ciascuna delle forze in gioco lo interpreti secondo il proprio punto di vista e secondo il vantaggio (o la minaccia) che può configurare.
C’è infatti un concetto che pervade l’intero argomento. Ed è quello della totale separazione tra le funzionalità e i servizi It offerti all’utente e le relative tecnologie abilitanti. Questa separazione viene attuata tramite lo spostamento sia delle soluzioni software sia delle infrastrutture hardware dall’utente ad uno o più fornitori esterni in grado di erogare attraverso la Rete (ecco la ‘nuvola’) e sotto forma di servizio ciò di cui l’utente ha bisogno. Si tratta, insomma, di applicare all’It il concetto che informa la fornitura delle cosiddette ‘utility’. Come nessuno oggi si scava pozzi e tiene in casa generatori elettrici se non in casi particolari, così nessuno dovrà domani comprare risorse server e storage ed installare e mantenere applicazioni se non in casi altrettanto particolari. Ma It significa Information Technology e finora è stata un binomio inscindibile. Rompere questa coppia, facendo vivere la tecnologia (hardware e software), da una parte e l’informazione da questa elaborata dall’altra, non è una cosa da poco. E’ un mutamento epocale.

Niente di nuovo sotto il sole?
La storia delle rivoluzioni ci insegna che se queste si fanno manifeste attraverso fatti evidenti e talvolta clamorosi, si sviluppano però per somma di eventi spesso non immediatamente percepibili ma che vanno tutti verso una stessa direzione. Così, l’idea configurata dal cloud computing di utilizzare risorse distribuite e accessibili dalla Rete non nasce sei o sette mesi fa, quando questo termine incomincia a farsi sentire, ma anni addietro. Addirittura, si può dire, quando a metà degli anni ‘90, dopo che Tim Berners-Lee ha inventato il World Wide Web e l’Internet si è trasformata da insieme eterogeneo di basi dati private alla rete globale che conosciamo, compaiono i browser grafici che permettono di accedere facilmente a questa nuova risorsa. Per dieci anni e più però il Web rimane, e per molti lo è ancora, un immenso patrimonio d’informazione, con milioni di ‘pagine’ da consultare, ma fruito in modo passivo. Sulla Rete si è andati fino ad oggi soprattutto per conoscere e vedere, non per ‘fare’. Anche la posta elettronica, con tutta l’importanza che ha assunto nelle imprese e nella società, è una fruizione passiva. A differenza della chat e della messaggistica online, per le applicazioni di e-mail Pc-based la Rete ha la stessa funzione di puro trasporto che avevano i corrieri delle Imperial-Regie Poste austroungariche (che peraltro funzionavano bene). Eppure le applicazioni Web-based ci sono state da sempre. Quando si cercava qualcosa con Altavista (uno dei primi motori di ricerca) si usava tramite il browser un’applicazione che risiedeva altrove, sul server che ospitava il sito di Altavista. E lo stesso quando si ordina un libro su Amazon.com, il che si fa, se ricordiamo bene, da una decina d’anni almeno. Ovviamente, se per utilizzare queste applicazioni, che coinvolgono lo scambio di un limitato volume d’informazioni era, ed è, sufficiente la capacità di trasferimento dati offerta dalle connessioni dial-up, per un’applicazione più complessa occorre poter contare sulla connettività a banda larga. Ma questa è oramai largamente diffusa e oggi anche nel nostro Paese, dove pure permangono delle sacche non coperte da fibra ottica e reti Adsl, si può dire che raggiunga praticamente ogni centro di attività. La lentezza con cui in Italia, si sono affermati i siti di e-commerce e, dalle banche alla pubblica amministrazione, i siti interattivi e con funzioni dispositive (quindi con uso di applicazioni avanzate) è notoriamente dovuta a fattori non tecnologici ma culturali e organizzativi di cui si è troppo scritto per rifarne la storia. Ma che rimangono e con i quali, nonostante la spinta al cambiamento portata da necessità rese ineludibili dal quadro competitivo, anche la rivoluzione del cloud computing dovrà fare i conti.

Sulla spinta del privato
Le cose però stanno cambiando, e un esempio di tale cambiamento è dato dall’attenzione delle aziende verso soluzioni di comunicazione e collaborazione, dalla messaggistica multimediale alla videoconferenza, mutuate da mondo consumer. E citiamo questo caso perché nel cammino che porta, o porterà, alla rivoluzione di cui si è detto, una funzione importante l’ha proprio il mondo consumer, per il ruolo propulsore che un’utenza abituata ad usare per sé tecnologie e soprattutto modalità d’uso della Rete e del computer più avanzate di quelle adottate sul lavoro può avere nel cambiamento della cultura e delle organizzazioni aziendali. D’altra parte, proprio nel mondo che più consumer non si può è nato il peer-to-peer, una delle tecnologie che hanno portato all’evoluzione di Internet verso il cosiddetto Web 2.0, che è a sua volta premessa al cloud computing. Nell’estate del 1999 un diciottenne a nome Shawn Fanning. scriveva Napster, un programma che serviva alla duplicazione e distribuzione (allora gratuita, e quindi illegale, oggi a pagamento) dei file musicali; ma il principio su cui si basa si può ovviamente applicare, ed è stato applicato, ad una quantità di tipi di file. Si tratta di un programma, scaricabile gratuitamente da Internet, che viene installato sul proprio Pc da chiunque voglia partecipare allo scambio. Il software esamina il disco del computer alla ricerca di file musicali e trasmette le relative informazioni ad un server centrale sul quale si crea così una directory aggiornata in tempo reale di tutti gli archivi dei Pc collegati. Gli utenti selezionano su questa directory i file di loro interesse, ma il loro scaricamento avviene direttamente dai Pc di chi li ha messi a disposizione, a tutto vantaggio della velocità e del traffico sulla rete. Ai primi del 2001, in meno di due anni, la comunità Napster contava (secondo un’indagine di Media Metrix) 26 milioni di utenti che passavano oltre 100 milioni di ore al mese nello scambio di file. 100 milioni di ore al mese sembrano un’enormità, ma distribuite fra i 26 milioni di Pc sono meno di otto minuti (0,13 ore) al giorno: un ritaglio di tempo che chiunque può trovare. Veniva dimostrato, per la prima volta al mondo, come la Rete poteva permettere a migliaia di computer di funzionare come una singola macchina condivisa, svolgendo compiti che agli utenti presi singolarmente sarebbero risultati impossibili.

Google come l’enel?
L’esperienza di Napster è citata da Nicholas Carr nel suo ultimo libro, The Big Switch (W. W. Norton, gennaio 2008, 276 pagine, 17,13 dollari su Amazon.com) che tratta appunto l’argomento della ‘grande svolta’ in atto nella modo di concepire l’informatica. Carr è l’autore del famoso articolo IT Doesn’t Matter, pubblicato nel maggio 2003 dall’Harvard Business Review, nel quale sosteneva la perdita di rilevanza dell’It quale fattore di competitività per l’impresa a causa della sua tendenza a diventare una ‘commodity’, ubiqua, fungibile e, in sostanza, indifferenziata. L’articolo, inutile dirlo, suscitò un vespaio di polemiche (come era certamente nell’intento dell’autore), ma oggi, a cinque anni di distanza, si può dire che in questa visione c’era una buona dose di verità, nel senso che se resta strategico l’impiego dell’It, ha sempre meno importanza come questa risorsa venga resa disponibile. Siamo infatti alla soglia di un mutamento fondamentale nella natura stessa dell’It, che da risorsa privata, che le imprese utenti devono procurarsi a loro cura, con una propria infrastruttura e un proprio software, diventa (può diventare) una utility pubblica, fornita da risorse centralizzate e distribuita in rete. Carr paragona tale cambiamento a quello che è avvenuto ai primi del ‘900, quando le fabbriche hanno rinunciato alle proprie centrali elettriche per rivolgersi a fornitori esterni. “Se questo è potuto accadere per una risorsa vitale come l’energia – dice – può benissimo accadere per l’informatica. Tanto più ora che questa diventa una tecnologia ‘general purpose’, buona cioè ad ogni scopo”.

Il ‘cloud’ è una scelta in più
L’analogia di Carr tra informatica e corrente elettrica funziona solo a livello economico, naturalmente, perché mentre l’unico problema di un fornitore d’energia è quello di servire all’utente tutti i Watt di cui ha bisogno mantenendo frequenza e voltaggio costanti, il fornitore di It deve garantire servizi molto differenziati, dalla semplice disponibilità di spazio storage e potenza di calcolo a quella di applicazioni, anche complesse, verticalizzate per settori d’industria. Ma questo non sposta il problema, né l’importanza della rivoluzione che il cloud computing anticipa ed annuncia. Perché sono i fattori economici che determinano le grandi scelte. Della gente come delle imprese. E’ facendo i conti che si decide se comprare una casa o prenderla in affitto, se assumere un venditore o nominare un agente, se ampliare lo stabilimento in Brianza o costruirne uno in Romania. Sarà quindi il calcolo economico e non altro a far decidere le imprese, e i Cio per esse, ad optare per l’una o l’altra soluzione di provisioning (perché di questo, infine, si tratta), o anche per entrambe.
Infatti, il cloud computing non è assolutamente un’alternativa tipo prendere-o-lasciare, ma una scelta in più. Come vedremo nell’articolo successivo, i suoi effetti saranno molto probabilmente più dirompenti per il mondo dell’offerta, che infatti, e non da ora, si sta preparando a cambiare i suoi modelli di business, che per quello della domanda di It. Quello che si può dire ai Cio, e anche ai Cfo, visto che il discorso è economico, è di stare all’erta, ovviamente, ma di non pensare al cloud computing come a qualcosa di negativo né tanto meno vedervi una minaccia all’autonomia e indipendenza operativa delle imprese e della stessa funzione It. E possibile, è vero, che dal punto di vista quantitativo i comparti It delle imprese, specie quelli che hanno una grande attività di gestione e manutenzione del parco applicativo, possano ridursi, ma questo non è necessariamente un male, se non per chi misura il proprio potere sul numero dei dipendenti e sul budget amministrato. Al contrario, va visto come un’opportunità per spostare a favore degli investimenti quel famoso rapporto di 4 a 1 tra questi e le spese correnti e liberare nel contempo risorse utili per quelle attività relative non a ‘come’ fornire servizi It al business, ma a ‘cosa’ farne ai fini della competitività. Che è quello che conta.


Leggi anche Fornitori in avvicinamento al cloud. E il mercato comincia a rispondere

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 2