Sono sempre di più le organizzazioni che adottano, anche in modo graduale, strumenti e strategie per l’analisi dei dati basati su tecnologie e approcci avanzati.
Sgombriamo subito il campo dall’equivoco che i tradizionali tool di business intelligence, che possono comunque essere integrati e valorizzati nei progetti di analytics, si possano definire sufficienti per parlare di analisi dei dati così come si intende oggi con questo termine: le pur pregevoli soluzioni di BI di ultradecennale memoria sono utili a evidenziare andamenti ed effettuare intuizioni (insight) sulla base di dati storici, solitamente solo di tipo strutturato. Per contro, per l’elaborazione dei dati, gli attuali data analytics implementano, accanto alle tradizionali operazioni statistiche, anche gli algoritmi: questi, costituiti da serie specifiche e mirate di operazioni logiche e matematiche, consentono di effettuare predizioni (predictive) e suggerire azioni (prescriptive) per il futuro.
Inoltre, i più sofisticati analytics non si limitano ad analizzare dati strutturati memorizzati in eventuali data warehouse, ma sono in grado di attingere (ingestion) anche dati strutturati, semistrutturati e non strutturati provenienti dalla fonti più disparate, interne o esterne alle aziende, contenenti dati archiviati e quindi statici (at rest) o che permettono l’accesso a dati in movimento (streaming di dati).
Come molte aziende ancora approcciano l’utilizzo dei dati
Per avere un’idea sintetica della panoramica delle situazioni in cui le aziende si possono trovare nei confronti dell’analisi dei dati in un’era data-driven, all’estremo della maturità più bassa, o del quoziente di intelligenza (IQ, Intelligence Quotient, in senso metaforico, ovviamente) minore, troviamo le realtà analizzano i propri dati con modalità manuali o con il supporto, tutt’al più, dei fogli di calcolo, spesso creati ad hoc, per singole aree aziendali, direttamente sui pc o laptop dei manager o degli impiegati. In realtà queste aziende non sono consapevoli del valore che hanno i dati e quindi si limitano ad un utilizzo funzionale soloa d alcune specifiche attività. Salendo di pochi gradini, troviamo realtà in cui i responsabili delle funzioni ritengono necessario avere un approccio più standardizzato, efficace ed evolutivo all’intelligence dei dati: ecco, quindi utilizzare le competenze di qualche esperto interno (risorsa IT o utente evoluto) o di partner esterni per implementare qualche strumento di reporting e di analisi alimentato dal database del gestionale e da altre banche dati interne ed esterne.
Man mano che si cresce nelle necessità di automatizzazione della gestione, del reporting e dell’analisi di una crescente quantità e diversificazione dei dati, l’IQ di un’azienda rispetto al tema analytics inizia a misurarsi con la consapevolezza che i dati non sono semplici rappresentazioni di situazioni e prestazioni storiche, ma un patrimonio paragonabile a quello di altri tipi di asset. In quanto tale, anche la disponibilità sempre maggiore in quantità e qualità dei dati diventa una ricchezza, trasformabile in mappe e combustibile per affrontare nuovi viaggi verso i clienti attuali e potenziali. Da questa consapevolezza nascono le decisioni di riportare il tema degli analytics nell’ambito di una strategia voluta e sostenuta dal top management, che considerano gli acquisti di piattaforme analitiche e le assunzioni di sviluppatori e data scientist non come costi, ma come investimenti dai ROI (Return on Investment) garantiti.
I passi concreti verso un’architettura e una governance dell’analisi dei dati
Come tutti gli investimenti, non potendo partire da zero e con un big bang di iniziative, diventa necessaria la prioritizzazione degli ambiti aziendali in cui adottare per prime piattaforme e tool analitici avanzati, magari prevedendo alcuni basati anche su tecnologie di intelligenza artificiale (AI, artificial intelligence) e machine learning (ML).
Allo stesso tempo però, è indispensabile individuare e pianificare l’implementazione di un’architettura analitica in grado di orchestrare, mettere a fattor comune e ricondurre al rispetto di policy di standardizzazione dei dati, tutte le piattaforme di analisi che man mano vengono integrate, acquisite o sviluppate in casa. Grazie all’architettura, alla condivisione dei dati e alle policy, diventa così possibile anche integrare gli analytics con altre applicazioni affinché possano impattare in modo attivo (anche in modo automatico) sui processi decisionali e operativi. In tutto questo contesto diventa imperativa la creazione di una governance che prenda in considerazione tutti gli aspetti correlati alla gestione e analisi avanzata dei dati: dalla qualità dei dati alla loro sicurezza e gestione in ottica di compliance alle normative sulla privacy (come il GDPR); dalle attività di auditing su rispetto di queste policy alla pianificazione e gestione finanziaria, e così via.
Uno strumento utile per l’auto-valutazione e un aggiornamento
DXC Technology ha messo a disposizione gratuitamente sul proprio sito un servizio di auto valutazione dell’analytic IQ basato su ben undici questionari dedicati a criteri quali: Analytic Workflow, Analytic Discovery, Analytic Platform, Information Governance, Information Delivery, Hybrid Data Management, Machine Learning, Decision Management, Application Integration, Produzione e Gestione Analitiche e Cultura dell’Analitica.
L’applicazione non è utile solo come strumento di self assessment ma permette, già dall’analisi delle domande, di capire quali sono i tanti problemi, soluzioni, strumenti tecnologici, approcci di governance e organizzativi necessari a rendere l’azienda sempre più in grado di muoversi in modo agile, efficace e innovativo nell’era data-driven. E questo grazie al DNA di eccellenza del vendor sia sul piano della consulenza aziendale sia su quello dell’approccio e della gestione (anche come managed serviced) delle tecnologie più innovative, mantenendo anche in questo caso il proprio spirito agnostico.