Anche a voler essere prudenti, sono al minimo dieci anni che Internet, o meglio il World Wide Web, per distinguere la rete portante da ciò che da questa è portato, costituisce la più grande fonte d’informazioni e di conoscenza che l’umanità abbia mai avuto. Ma il Web non è la nuova Biblioteca d’Alessandria: a differenza di tutte le fonti di conoscenza che l’hanno preceduto, il Web è alimentato dal basso. Il che ne è il limite (per questo si parla di conoscenza e non di sapere) ma anche la forza. Una forza che si è organizzata attraverso il fenomeno delle reti sociali.
Il concetto di social networking comprende i canali e le modalità tramite le quali chiunque abbia una connessione Internet può esprimere e condividere con altre persone il proprio pensiero. Si va quindi dai grandi siti creati al puro scopo di comunicare (Facebook ne è il paradigma) ai blog tenuti da personaggi più o meno noti; dai Forum e dai newsgroup nati attorno a interessi comuni, ai commenti liberi o moderati, alle notizie on-line; sino agli spazi che molti siti aziendali lasciano a disposizione di chi vi accede. Si tratta di una variegata galassia che genera un enorme volume di contenuti, prevalentemente testuali ma anche in forma audiovisiva, dal grandissimo valore informativo. Infatti, questi Ugc (User generated content) hanno la caratteristica di provenire dalla base, dalla cosiddetta “gente comune”, di poter essere rilevati in tempo reale e soprattutto di essere spontanei, dato che i tentativi di manipolare la Rete, anche da parte di poteri forti, si sono finora dimostrati vani: si è riusciti a oscurare Internet, ma non (ancora) a creare un Web alternativo e addomesticato.
Poterli analizzare rappresenta una fonte di conoscenza preziosa per chiunque è interessato a ciò che avviene sulla Rete. In particolare, da tali analisi è possibile per le aziende trarre un valore economico o guadagnare un vantaggio competitivo. Come spiega Paolo Pasini, responsabile dell’Osservatorio Business Intelligence di Sda Bocconi School of Management (vedi sotto), nel corso di un workshop dal titolo “eDiscovery: nuove forme di Intelligence nel Web e nel Social Web": “Le informazioni ottenibili ‘ascoltando’ il Web e valutando i segnali forti e deboli che si generano sulla rete nei settori in cui l’azienda opera, o ad essi contigui, sono di grande importanza per comprendere i ritorni degli investimenti che, come progetti e attività, si stanno facendo sul Web in tutte le sue forme”, dice Pasini.
Figura 1 – Componenti e struttura delle soluzioni di Web-BI
(cliccare sull'immagine per visualizzarla correttamente)
L’analisi dei dati rilevabili dal Web non è una novità. Da tempo il comportamento e le interazioni dei visitatori dei siti sono oggetto di ricerca accademica e di pratica aziendale, con analisi dei siti sia informativi (numero accessi, durata, provenienza, pagine viste, esposizione alla pubblicità ecc.), sia di e-business (richiesta d’informazioni e preventivi, valore medio e frequenza degli acquisti, composizione dei ‘carrelli’ e così via). Queste informazioni sono rilevabili grazie agli strumenti di “clickstream analysis” che, combinati ai dati delle transazioni, forniscono valori quantitativi in grado di tracciare un quadro utile ad affinare la qualità e il rendimento della propria presenza sul Web. L’analisi degli Ugc presenta però problemi diversi, trattandosi di esaminare contenuti non strutturati e di ottenere valori di tipo essenzialmente qualitativo. Qui diamo una sintesi della metodologia proposta, lasciando la dettagliata esposizione dei modelli e delle operazioni alla documentazione ottenibile presso l’Osservatorio stesso.
Figura 2 – Dalla raccolta dati all'analisi: gli stadi del processo
(cliccare sull'immagine per visualizzarla correttamente)
La prima cosa da fare è, ovviamente, stabilire cosa cercare e dove. Nel workshop citato si è proposta una tassonomia che definisce sette tipi di fonti Web e altrettante tipologie di analisi dei dati. Le fonti sono: Social network, comunità sviluppate in ambito professionale, hobbistico o di relazione personale; Blog, siti dotati di un sistema di pubblicazione dove l’autore del blog stabilisce il tema di discussione e i lettori intervengono con commenti e risposte; Community, create da utenti o aziende su un tema comune; Forum, bacheche ospitate su siti web dove gli appassionati di un dato argomento si scrivono e rispondono tra loro; Newsgroup, simili ai forum ma accessibili direttamente dalla rete senza un sito ospitante; Fonti mainstream, con informazioni fornite da giornali, riviste e agenzie (tipo Google News); Siti istituzionali, creati e gestiti dalle aziende a fini di comunicazione o di e-commerce.
Quanto alle analisi, nell’attuale fase di esperienze emergenti sono difficili da identificare e classificare. L’Osservatorio ha proposto un elenco, probabilmente destinato ad arricchirsi in futuro, che riordina diverse esperienze analizzate. Si tratta di:
– reputation analysis, per tracciare un profilo di come l’impresa viene percepita all’esterno basato su molteplici fattori, dal brand aziendale e dei prodotti alle politiche ambientali e di responsabilità sociale, dall’immagine dei dirigenti ai dati azionari e di bilancio;
– new concept testing analysis, per trarre suggerimenti e percezioni sulle caratteristiche da dare a un nuovo prodotto o servizio;
– opinion & satisfaction monitoring, per analizzare, in genere presso i clienti, i giudizi e le percezioni sulla funzionalità e qualità dei prodotti e servizi venduti;
– new product competition, per conoscere in generale, sia tra i clienti sia tra i non clienti, le associazioni e i confronti con i prodotti/servizi della concorrenza o anche di settori contigui (tipo: cosmetici contro servizi di Wellness);
– sentiment/perception analysis, per sapere, anche qui in generale, i motivi di non acquisto o comunque le sensazioni e percezioni sull’azienda e sui suoi prodotti;
– profiling, behavior & experience analysis, per studiare il profilo e la segmentazione degli utenti e clienti web, il loro atteggiamento nelle comunità, la loro esperienza riguardo i siti o i portali dell’azienda e quant’altro ne influenza il comportamento;
– social web network analysis, per individuare la rete relazionale, sia essa di business, di partnership o solo amicale, relativa a un dato fenomeno, con le figure che la influenzano e le persone che vi fanno da snodo.
Un ulteriore studio, trasversale a tutte le forme elencate, è poi la conversion analysis, che stabilisce quanti dei partecipanti compresi nelle forme di relazione citate si trasforma in un contatto potenziale o reale di vendita. È, insomma l’analisi che, svolta da una serie di tool specializzati, misura l’efficacia delle attività sul web dell’azienda.
Operativamente, si identificano diverse fasi d’intervento. La prima è la raccolta delle pagine web dai siti ritenuti rilevanti. Questa avviene tramite strumenti software (sniffer e crawler) che intercettano le pagine dal sito monitorato al determinarsi di un dato evento (modifica di pagina, nuove pagine su dati temi, nuovi link e così via). Questi tool (che devono agire nel rispetto delle norme sulla privacy) vanno usati una tantum, in occasione, per esempio, di campagne marketing o lancio di nuovi prodotti, o periodicamente, alla cadenza ritenuta significativa per l’analisi in oggetto. I contenuti così raccolti vanno poi “filtrati” per renderli neutri rispetto ad azioni pubblicitarie o a passaparola dovuti a eventi straordinari e quindi memorizzati e indicizzati per poter essere classificati e interpretati.
Tra le fasi di acquisizione e indicizzazione e quella di classificazione e interpretazione si applicano algoritmi semantici in grado di estrarre, con strumenti di analisi logica e disambiguazione dei termini, i concetti primari dai testi catturati. Strumenti di pattern matching & recognition svolgono compiti analoghi su suoni e immagini. Una volta riportate le informazioni a una struttura omogenea, la base dati si può sottoporre alle tradizionali logiche di elaborazione della BI per eseguire conteggi di frequenza e calcolo di pesi e ranking tra i temi rilevati che permettono di giungere a un’analisi qualitativa dei fenomeni. A questo punto, non resta che organizzare, tramite gli abituali strumenti di reporting e di presentazione, le analisi qualitative così ottenute a quelle quantitative di cui si è detto per avere un quadro completo della presenza e del rendimento sul Web dell’impresa.
Uno studio che parte dall'uomo
L’Osservatorio Business Intelligence della Scuola di Direzione Aziendale dell’Università Bocconi si compone di un Comitato scientifico, una struttura di ricerca e un panel di aziende aderenti e focalizza le proprie indagini secondo un modello che vede al centro l’utente dei sistemi di BI e Business Performance Management, visto come persona e come decisore o analista aziendale. Dall’utente, l’analisi si estende per gradi ai mezzi tecnologici (tool e applicazioni BI/Bpm); ai principi, modelli e processi di gestione relativi ai fenomeni analizzati e alle linee guida delle strategie BI/Bpm dell’azienda. Il tutto calato sullo stato e sulle dinamiche dell’offerta di soluzioni software e servizi del settore. Un esempio del tipo d’interrelazione tra analisi scientifica ed esperienza pratica dell’Osservatorio si è avuto anche nel primo dei tre “chapter” del ciclo di indagini 2009-2010, dedicato appunto alla Web analysis. Nel workshop e-Discovery del dicembre scorso infatti, oltre ai risultati degli studi sulle potenzialità di business e sulle criticità d’implementazione della Web Intelligence sono state presentate le esperienze di otto imprese appartenenti a settori molto differenziati: Alcatel Lucent Italia (reti fonia e dati), Binda (orologi e gioielli), CSI Piemonte (Pa locale), Edenred (già Accor Services, buoni servizio), Fiera di Milano, Gruppo Erif (immobiliare), Pirelli e Sisal.
Un decalogo per cominciare
In estrema sintesi, ecco i punti che da quanto appreso in base alle ricerche svolte e alle esperienze esaminate dall’Osservatorio risultano di primaria importanza per l’azienda che intende varare un progetto di Web, e soprattutto di Social Web, Intelligence
1. Sensibilizzare il management sulla Web Bi, con operazioni di formazione e sperimentazioni veloci e a basso costo (prototipi), molto mirate per non generare informazioni approssimative e inaffidabili.
2. Creare consapevolezza sul potenziale informativo e sui rischi di queste nuove forme di social web intelligence.
3. Focalizzarsi prima sulle Web analytics e sulla Web customer experience (nella navigazione dei siti, nelle community, nei social network…), e poi, con l’esperienza, sulla Social web analysis, sulla Conversion e sulla generazione di revenue.
4. Definire pochi ma significativi Kpi su Web da assegnare come responsabilità formale a una o più persone in azienda.
5. Segmentare i clienti e automatizzare il più possibile il processo di comunicazione e di promozione, soprattutto per chi opera nel B2C.
6. Prima di diffondere nuove tecniche di social web (blog, wiki, forum, …) definire chiare misure di risultato.
7. Fondare il Web marketing sulla Web Bi, sia di dati strutturati, sia non strutturati, integrando quindi l’analisi anche dei dati del Social web.
8. Definire molto bene obiettivi, confini e keywords delle analisi su Web, con esperti sia di settore e mercato, sia di prodotto, o comunque in generale degli oggetti di analisi definiti.
9. Tener presente che solo una grande azienda o chi fa service It in mercati ‘captive’ ha la massa critica di attività per portare all’interno le tecnologie e le competenze di Web intelligence presso la funzione It e presso la funzione Marketing.
10. Nei più frequenti casi di service esterno per l’impostazione e lo svolgimento delle attività di Web Bi, non accettare le tecnologie impiegate come una “blackbox” ma capirne bene le logiche di parametrizzazione e di funzionamento e le funzionalità, e nei limiti del possibile fare una reale selezione dei partner.