Analytics e Big data sono entrati ormai di diritto tra le buzzword più diffuse nel mondo dei sistemi informativi. Come sempre in questi casi, i significati attribuiti dai diversi interlocutori sono molteplici e non del tutto concordi.
Partendo dal fatto che entrambe rappresentano molto di più del significato di base delle due singole parole (“sistemi di analisi” e “grandi quantità di dati”), proviamo ad arrivare ad una comprensione del fenomeno e a spiegarne la sua rilevanza per la creazione di valore attraverso l’osservazione di alcuni trend in atto nel mondo reale.
La digitalizzazione del mondo che ci circonda e la crescita e diffusione dell’utilizzo di tecnologie consumer da parte della popolazione determinano nuovi interessanti scenari caratterizzati da:
– una moltiplicazione esponenziale dei “sensori” che raccolgono dati reali sul comportamento dei potenziali clienti delle aziende (sensori radio, video, audio, gps, ecc.);
– una conseguente opportunità di sfruttare queste nuove fonti che si presentano in modalità “non strutturata” rispetto al passato (formati eterogenei come video o audio, provenienza eterogenea come i gps o i social network, ecc.) per offrire servizi “qui e ora” ovvero estremamente legati al contesto e al momento in cui si trova il cliente;
– la necessità di dotarsi di strumenti di analisi di tutti i dati raccolti che abbiano una potenza significativamente superiore e che abilitino in primo luogo un’analisi di tipo predittivo, capace di proporre un’azione immediata sul cliente in base ai risultati ottenuti.
In estrema sintesi e semplificando un po’ è possibile affermare che Analytics e Big data rappresentano quell’insieme di modelli, tecnologie, infrastrutture che mettono le aziende in condizione di massimizzare il valore di business proveniente dagli eventi descritti. Si tratta in pratica di sfruttare e di saper usufruire in modo virtuoso di un quantitativo di informazioni significativamente maggiore rispetto al passato, di “rimettere al centro il valore dei dati”, anche intesi come database relazionali più tradizionali.
Gli investimenti effettuati nei progetti di Enterprise Datawarehouse e in sofisticati tool di Business Intelligence non hanno infatti finora espresso tutto il loro potenziale, sorpattutto in termini di capacità elaborativa previsionale (per la quale occorrono anche skill molto specifici che non è così facile reperire sul mercato) e di identificazione della “next best action” più appropriata che possa finalmente collegare le analisi svolte ad una azione/reazione focalizzata sul cliente e tarata ai suoi reali bisogni.
Gli analytics si propongono quindi di dare una nuova valenza alle architetture e agli strumenti di elaborazione dei dati, attraverso nuove forme di realizzazione dei sistemi informativi, ad esempio in modalità as a service (vale a dire gestitia da un provider esterno) e di reperimento dei dati (sfruttando le potenzialità del cloud). Dopo anni di oscuramento a vantaggio delle infrastrutture e delle applicazioni che li utilizzano, i dati tornano così ad essere protagonisti e determinanti per le abilitare le strategie aziendali.
Stefano Sperimborgo è Responsabile offerta It Strategy di Accenture