Sul fatto che Internet prima e i terminali mobili poi abbiano cambiato e stiano tuttora cambiando il modo in cui vivono e lavorano le persone, siamo tutti d’accordo. Ma su come e in quale misura le imprese abbiano colto il valore di questa trasformazione e vi si siano preparate, in special modo per quanto guarda l’It, c’è da discutere. Tanto che, secondo una ricerca di Idc (vedi in dettaglio nell’articolo seguente), solo nel 31% dei casi il top management ritiene che l’It sia oggi in grado di aiutare efficacemente il business nel comprendere l’impatto del crescente peso del web e della mobilità sull’organizzazione e nel coglierne rischi e opportunità.
Il problema sta nel fatto che da un lato la stessa Internet è in evoluzione, con aspetti che ne cambiano profondamente le modalità d’uso, come il social networking che diventa fornitore di contenuti (vedi il recentissimo accordo tra Facebook e Miramax), e dall’altro l’accesso mobile ha trasformato lo smartphone da strumento di comunicazione a centro polivalente che affianca e sostituisce Pc e laptop nel fruire dei servizi della Rete. Ma così come il business si deve adeguare ai mercati, l’It deve adeguarsi ai cambiamenti di un’infrastruttura di vitale importanza in tutte le imprese: non solo il marketing, la pubblicità, il Crm e, ovviamente, le vendite on-line dipendono dalla qualità di processi Web-based ma anche funzioni interne come l’Ucc e la gestione delle risorse umane. E tra le prime cose che l’It deve fare (anzi, la prima in assoluto, secondo la citata ricerca Idc) c’è la capacità di sviluppare un sistema di monitoraggio end-to-end e in tempo reale delle prestazioni delle applicazioni Web per dare al business, tramite opportuni strumenti d’analisi e reporting, le informazioni di cui ha bisogno.
Il motivo per cui le prestazioni di un’applicazione Web sono vitali è molto semplice: se una pagina non compare a video nel tempo che l’utente si aspetta si crea uno scontento che negli utenti interni (dipendenti, partner, fornitori…) si traduce in calo di produttività e in quelli esterni in tasso di abbandono. E se al primo si può anche rimediare migliorando in prospettiva, per il secondo è difficilissimo recuperare utenti persi. Inoltre si perdono immagine, vendite e fatturato, valori che rischiano con molta probabilità di passare a un concorrente più veloce ed efficiente. Le connessioni Adsl e a banda larga hanno portato il tempo di attesa a valori minimi: secondo Forrester il 47% degli utenti si aspetta di ricevere la pagina richiesta in due secondi o meno, il 36% in tre secondi e solo il 17% attende quattro secondi o più. Analoghe indagini sugli utenti mobili danno quasi gli stessi risultati: dopo due secondi il tasso di abbandono si impenna e oltre i cinque un utente su quattro se ne va.
Le applicazioni Web odierne sono complesse e ricche di funzioni, ma soprattutto sono di natura composita, cioè con elementi che vengono assemblati di volta in volta dal browser dell’utente, che fa da piattaforma d’integrazione. Si tratta, in media, d’una decina di servizi che provengono da fonti diverse. Alcuni sono forniti dal Data center aziendale, altri da fornitori di contenuti (Cdn, Content Delivery Network), altri ancora, come i sistemi di pagamento, la pubblicità e l’analisi degli accessi, da terze parti e fornitori di servizi cloud. Tutti impattano sulla disponibilità del sito e sul tempo di risposta, quindi sull’esperienza-utente. Della delivery chain fanno poi parte, ovviamente, gli Isp, sia il provider principale, che porta l’azienda in Rete, sia quello locale, che porta la Rete sul Pc dell’utente. Quando poi l’accesso avviene da un terminale mobile (e secondo Morgan Stanley, nel 2014 ciò sarà il caso più frequente), entra nella catena anche il carrier telecom che porta Internet sul suo smartphone. Tranne il Data center, tutti questi elementi stanno al di fuori del firewall e del controllo della funzione It, per cui succede che l’utente abbia un’esperienza scadente anche se per gli strumenti di system management va tutto bene. Occorre un tipo di controllo radicalmente diverso, che arrivi ai sistemi aziendali partendo dal punto di vista dell’utente (vedi figura 1).
Figura 1 – xx
(cliccare sull’immagine per visualizzarla correttamente)
Vi sono due approcci per un monitoraggio del genere. Uno è di tipo attivo e impiega agenti software geograficamente distribuiti sulla Rete che raccolgono i dati sulle prestazioni tramite test programmati che simulano il modo in cui gli utenti interagiscono con il sito e ne vedono i contenuti. Il secondo è di tipo passivo e raccoglie i dati analizzando l’effettiva esperienza e comportamento degli utenti nella loro interazione con le pagine Web. Il primo approccio si può definire ‘sintetico’ o ‘operazionale’, il secondo ‘reale’. Entrambi forniscono dati importanti sul sito e le due metodologie si possono efficacemente combinare in una strategia di monitoraggio a tre livelli: uno sintetico sulla dorsale Internet (dall’azienda al cloud); uno sintetico sul cosiddetto ‘ultimo miglio’ (dal cloud all’utente) e uno reale sull’effettivo utente finale. Vediamo le possibilità che questa strategia combinata offre.
Strategia di monitoraggio
Il monitoraggio sintetico sulla dorsale (backbone) notifica i problemi di availability e connettività del sito prima che gli utenti ne siano colpiti e permette di identificarne ed isolarne le cause in modo da poterli risolvere tempestivamente. Assicura quindi il buon funzionamento dei processi critici per il business e, cosa non trascurabile, permette di predisporre dei benchmark con i quali confrontare le prestazioni del proprio sito rispetto ai siti della concorrenza. Inoltre, dei tre livelli di controllo è quello che più si svolge in condizioni ‘di laboratorio’, offrendo misure ripetibili nel tempo.
Anche il monitoraggio sintetico sull’ultimo miglio si applica su un traffico generato in modo artificiale, ma in una prospettiva diversa. Le condizioni dell’utente sono simulate tramite informazioni relative a dorsali, Web server, configurazioni di rete, Pc e dispositivi mobili che ne riproducono da vicino l’esperienza reale, attuando un tipo di monitoraggio altrimenti impossibile. Si possono quindi scoprire problemi dovuti a reti regionali che investono solo certe aree geografiche; scoprire attività degli Isp locali (tipo traffico peer-to-peer) che creano picchi di traffico in grado d’impattare negativamente sull’utente; misurare le prestazioni dei content delivery network in modo da valutare la scelta di un Cdn piuttosto che di un altro in un’area geografica importante per il business.
Il monitoraggio sull’utente reale, infine, funziona in modo simile alle Web analytics: si mettono dei tag sulle pagine da controllare e quando l’utente vi accede si raccolgono dati sull’attività e sulle prestazioni. I dati che si ottengono collegano le analisi operazionali con l’esperienza ‘sul vivo’ fornendo il vero quadro della situazione. Permettono quindi di sapere come funziona l’applicazione sui diversi browser, di valutare le prestazioni dei contributi delle terze parti, se i cambiamenti fatti abbiano migliorato la user-experience, come questa possa essere potenziata da diverse tecnologie (tipo: Ajax, Flash, Silverlight…) e, soprattutto, se e quanto i problemi prestazionali rilevati strumentalmente abbiano influito sul business.
Il monitoraggio sull’utente e sull’ultimo miglio sono importanti soprattutto per migliorare le prestazioni dell’applicazione Web per gli utenti mobili. Cosa dove, peraltro, l’It aziendale ha un margine d’intervento. Si tratta, in base ai parametri rilevati sia dal monitoraggio operazionale sia da quello sull’utente effettivo, di agire in primo luogo sulla struttura dell’applicazione semplificando l’aspetto delle pagine e la presentazione dei contenuti a vantaggio della velocità di esecuzione. Infatti se gli utenti mobili accettano di avere sullo schermo dello smartphone una visione dei siti meno ‘ricca’ che sul tablet o sul Pc, non sono disposti a transigere, come si è visto, sui tempi di accesso. In secondo luogo si può lavorare sull’ottimizzazione per i diversi browser, in modo che l’applicazione non abbia dei ‘buchi’ prestazionali evidenti. Ciò vale ovviamente anche per l’accesso da Pc, ma gli utenti mobili sono legati più di quelli fissi al browser nativo del dispositivo.
Una strategia di controllo come quella descritta, che combina il monitoraggio sintetico con quello reale, mette l’It in grado di funzionare meglio, dando le giuste priorità agli interventi sulle applicazioni e spostando le risorse a coprire i punti deboli rilevati, e di supportare il business nel raggiungere, grazie alla fidelizzazione e alla soddisfazione dei clienti, l’obiettivo di ridurre i costi (cambiando gli elementi della delivery chain inefficienti) e incrementare il fatturato, che è poi lo scopo finale di ogni impresa.