Se negli Usa il tema big data è sentito come una sorta di rivoluzione, nel Sud Europa, in Italia in particolare, l’atteggiamento è ben diverso, cauto, nonostante ci sia molto interesse da parte delle aziende, almeno nelle dichiarazioni. È questa la visione espressa da Michele Guglielmo, Territory Manager Italy di Splunk (realtà ‘scoperta’ da Consoft Sistemi che, un anno fa, ha creato CS InIT nella quale sono confluite le risorse che dal 2009 operano per far conoscere al mercato italiano le potenzialità del prodotto e distribuirlo sul territorio), che giustifica sottolineando come, dal suo punto di osservazione, in Italia manchi ancora una capacità di proposta concreta: “Gli strumenti che oggi sono offerti per affrontare le sfide dei big data, intese come capacità di analisi di grandi moli di dati destrutturati, mancano in genere di caratteristiche e funzionalità che tengano conto dei processi produttivi aziendali e delle risorse umane”, sostiene Guglielmo, che prosegue: “L’approccio cautelativo delle imprese italiane è a mio avviso giustificato anche dalla scarsa conoscenza tecnologica. Sotto il profilo dello storage e del backup le soluzioni sono mature e l’innovazione in campo big data è un percorso naturale di evoluzione tecnologica. Sul piano dell’analisi, invece, è ancora tutto da costruire perché entriamo in un campo nuovo, diverso da quello della Business Intelligence”.
Quali le caratteristiche di un motore intelligente per l'elaborazione di big data
Le tecnologie come Hadoop stanno certamente contribuendo a ‘creare cultura’, riflette il manager italiano di Splunk, ma “la sua adozione, benché la distribuzione sia gratuita, non è poi così diffusa”. E le ragioni sono diverse: “In primo luogo, in azienda mancano le competenze, quindi bisognerebbe trovare gli skill adatti, inserirli e integrarli nella divisione It oppure affidarsi a partner esterni; in entrambi i casi, sono richiesti degli investimenti. In secondo luogo, Hadoop ‘da sola’ non funziona; è necessario integrarla ai sistemi esistenti ma, spesso, le infrastrutture risultano inadatte e devono quindi essere adeguate per poter riuscire a sfruttare le potenzialità di questa tecnologia”.
“Tutte criticità che con la nostra soluzione non sussistono – evidenzia Guglielmo -. Noi proponiamo una tecnologia basata su un unico motore sofisticato che consente di collezionare e aggregare grandi moli di dati anche non normalizzati, qualunque essi siano, e di analizzarli in modo molto semplice come se si utilizzasse un semplice motore di ricerca ‘stile’ Google. L’output delle analisi, che avvengono in real-time, dipende naturalmente dalla tipologia di ricerca che si intende effettuare e, quindi, dalle query (in altre parole, dalle domande poste al motore di ricerca). Le ‘risposte’ poi sono fruibili attraverso varie modalità: report classici, dashboard grafici, tabelle, ecc.”.
L’evoluzione tecnologica di Splunk è costruita attraverso il contributo di una community cui partecipano non solo le persone dell’azienda, ma anche sviluppatori esterni, nonché clienti e partner: “Grazie alla community siamo riusciti a sviluppare una serie di app, disponibili gratuitamente in download dal nostro sito (le app a pagamento sono una minoranza, meno di una decina rispetto alle 350 applicazioni già disponibili), che consentono di accelerare le attività di analisi delle nostre aziende clienti. Si tratta di soluzioni ‘pronte all’uso’ che racchiudono modelli di analisi e di reportistica preconfigurati, specifiche per singole esigenze, app per l’analisi delle vendite, per il reparto marketing o per particolari attività, anche diverse dall’analisi dei big data come, per esempio, per l’aggregazione e l’analisi dei file di log, come richiesto dal Garante della Privacy in Italia”.
“Ciò su cui vorrei infatti porre l’accento è la poliedricità della soluzione – conclude Guglielmo -. Partendo da un unico motore tecnologico, è possibile monitorare i sistemi It, occuparsi di aspetti di sicurezza e compliance, fare analisi di business…”.