I protagonisti dell’evento Questi i manager che hanno partecipato alla tavola rotonda di ZeroUno coordinata dal direttore Stefano Uberti Foppa. – Maurizio Agazzi – Direttore Sistemi Informativi di Robur |
Complessità: una parola attorno alla quale ruota un po’ tutto l’universo dei problemi che oggi investono i comparti It delle imprese e chi ne è alla guida. Una complessità che non riguarda le tecnologie, che per quanto stiano in effetti diventando sempre più complesse, stanno anche diventando sempre più facili da gestire e controllare (un paradosso solo apparente, dato che come in un qualsiasi congegno ben progettato e costruito, gran parte della complessità intrinseca di una soluzione It è finalizzata proprio alla semplificazione del suo impiego), ma riguarda il contesto generale in cui la funzione It di un’impresa si trova ad agire e le situazioni che è chiamata a risolvere.
Gli elementi di complessità che investono sia la gestione delle operazioni sia il governo di una qualsiasi organizzazione, distinguendo quindi tra una complessità tattica e una strategica, sono molti e diversi, ma tutti hanno un denominatore comune, ed è l’impatto quantitativo e qualitativo che hanno sul modo in cui le informazioni sono generate, raccolte e gestite in azienda. Quindi sull’essenza stessa dell’It, in quanto Information technology, nell’impresa. Cercando di farne un elenco, per definizione parziale perché oltre ai fattori generali di cui diremo, ogni singola realtà si trova ad affrontare poi complessità che le sono peculiari, tra gli elementi che impattano sull’It abbiamo in primo luogo la crescente globalizzazione della struttura e delle operazioni, con l’ingresso di nuovi paesi e mercati dei quali occorre conoscere, per potervi operare, ogni possibile aspetto. Poi, come frutto indiretto della globalizzazione, vi sono gli altrettanto crescenti processi di fusione e acquisizioni, che se ‘a valle’ investono i Cio della complessità che comporta la continuità delle operazioni e quindi del business, ‘a monte’ investono Ceo e Cfo delle complessità di una decisione strategica. All’interno dell’impresa abbiamo poi le complessità date dallo sviluppo e diversificazione dei canali commerciali (negozi on-line, reti in franchising, joint-ventures…) e dallo sviluppo e diversificazione delle linee d’offerta, con diversi prodotti per diversi mercati. Entrambe le cose, che spesso si sommano nella scelta di creare nuovi canali per nuovi prodotti, portano a ricomporre i processi aziendali riguardanti la catena del valore, dalla supply chain alla logistica, anche in base alle nuove informazioni che giungono al business e che l’It è chiamata a dare. Lo stretto rapporto tra informazioni ed elementi di complessità è ancora più evidente nelle situazioni in cui si sviluppa la scelta di trasformare prodotti in servizi (esempio classico, il passaggio dalla vendita di un macchinario al suo noleggio) oppure servizi tradizionali in servizi digitalizzati. E diventa massimo in quella che si definisce ‘innovation opening’, ossia all’attitudine e capacità dell’impresa ad innovare sé stessa e il mercato, che nasce dall’analisi d’informazioni disparate e si traduce in progetti anche di grande complessità, come quelli che oggi affronta l’industria automotive nel rinnovarsi in un momento di grave stretta economica. E, parlando di economia, non si può tacere di un ultimo fattore di complessità che investe tutti coloro che sono chiamati a decidere sulle strategie aziendali, quello appunto di agire nel quadro di una crisi globale che impone interventi strutturali per essere superata in condizioni di ripresa e non soltanto di sopravvivenza.
Della situazione che abbiamo tratteggiato ha parlato Paolo Pasini, docente della Sda Bocconi (www.sdabocconi.it) e direttore dell’Osservatorio Business Intelligence e Performance Management, il cui intervento ha di fatto aperto, dopo l’introduzione di Stefano Uberti Foppa, direttore di ZeroUno, un Executive Lunch organizzato a Milano dalla nostra rivista in collaborazione con Sybase Italia (www.sybase.com). Dal successivo dibattito tra gli intervenuti sono emersi spunti di riflessione sulle modalità ma soprattutto sulle finalità dell’analisi dei dati e delle informazioni al fine di rispondere alle sfide che la crescente complessità impone al business dei quali cercheremo di dare una breve sintesti nei punti seguenti.
Capire bene e capire subito
In un contesto di crescente complessità (crescente perché tranne la crisi economica, che per fortuna si sta dimostrando di durata inferiore al previsto, tutti gli altri fattori elencati mostrano dinamiche evolutive), ci si è resi conto del fatto che le informazioni quantitative tratte dagli Erp, dai quali proviene ancora il grosso dei dati che alimentano i sistemi di analisi, sono insufficienti. Servono informazioni d’altro genere, sulla customer satisfaction piuttosto che sulla brand loyalty, per esempio, per poter prendere certe decisioni, ma soprattutto, servono informazioni tempestive, perché i tempi del ‘ciclo virtuoso’ che attraverso l’analisi dei feed back del mercato porta a intervenire sull’offerta, e quindi ad analizzare l’effetto dell’intervento fatto per ulteriori miglioramenti o innovazioni, si riducono drasticamente. Si va dai trimestri al mese o alle settimane, e in certi business dove si sono realizzati processi di produzione e supply chain ‘on demand’ si va verso il near-real-time.
La percezione della necessità di avere informazioni tempestive è viva in tutte le imprese. Si assiste quindi alla diffusione dei sistemi di analisi in tempo reale dalle tradizionali aree d’impiego della finanza e delle telecomunicazioni alle società commerciali. Per chi opera nel retail le analisi svolte in continuità sul flusso dei dati stanno sostituendo quelle ‘batch’, compiute cioè ad intervalli di tempo prestabiliti, in alcune aree fondamentali del business, come ad esempio quelle sull’analisi del comportamento d’acquisto della clientela. Chi è responsabile dei punti vendita deve capire subito se e come un certo prodotto si vende quando questo è ancora sugli scaffali, in modo da prendere le necessarie misure, al riordino alle promozioni. Altrimenti, viene osservato, si parla di cose al passato. (Agazzi, Besurga, Pasini, Todaro).
Analisi sì, ma su quali dati?
Le esigenze di cui si è detto sono coerenti all’allargamento dell’utilizzo della business intelligence dalle decisioni e attività di tipo strategico a quelle di tipo operativo. Sta accadendo nel marketing perché è questa l’area aziendale dove la conoscenza e l’uso della Bi sono più diffuse e mature, ma è un fenomeno generalizzato, in atto più o meno in tutta l’organizzazione. È quindi compito dell’It provvedere affinché gli strumenti necessari alle analisi vengano resi disponibili ad un numero crescente di figure aziendali, cercando però nello stesso tempo di evitarne una diffusione incontrollata. Si tratta soprattutto di evitare i rischi delle analisi fai-da-te abilitate da strumenti individuali (leggi: Excel) le cui notevoli capacità di calcolo abbinate alla facilità d’uso non solo rappresentano un rischio potenziale di errore, ma soprattutto mascherano la debolezza della piattaforma sulla quale si basano, vale a dire i dati. Ai fini delle decisioni da prendere, la qualità di una qualsiasi analisi dipende infatti, come è ovvio, dalla qualità dei dati sui quali viene eseguita. Questo assunto è ben chiaro agli uomini dell’It, ed è per questo che, indipendentemente dalle soluzioni di analisi utilizzate, ogni sistema di business intelligence viene costruito partendo da una base-dati capace di garantire la cosiddetta “visione unica della realtà”. Non lo è però altrettanto per gli utenti aziendali, che tendono a prendere come universalmente valido ogni dato in loro possesso. Ma questo non è sempre vero. Uno stesso evento fornisce dati diversi a seconda di come viene considerato (viene ricordato il caso tipico del diverso valore che assume una data vendita per un commerciale, in base agli ordini, piuttosto che per un amministrativo in base alle fatture), e analisi sullo stesso fenomeno attuate in modo indipendente da manager diversi portano a diverse conclusioni.
Questo non è un problema del business, ma dell’It. Spetta alla funzione It, infatti, garantire la visione unica del dato, abbattendo i vari silos informativi presenti in un’impresa e realizzandone, con il ricorso a soluzioni di data certification e di master data management, il consolidamento in una base informativa unificata. Una volta che ciò sia stato fatto, si potrà passare alla fase successiva: la distribuzione dei dati agli utenti aziendali. Anche questo è compito e responsabilità dell’It, che una volta limitata la diffusione incontrollata dei dati deve però preoccuparsi di fare in modo che gli utenti abbiano un accesso facile e soprattutto veloce a tutti i dati di cui potranno avere bisogno. Una questione, viene fatto osservare, che prevede la rimodellazione dei processi interni relativi all’accesso ai dati e che coinvolge aspetti di sicurezza e protezione delle informazioni che in certe realtà (si pensi alle banche) assumono un’importanza critica. (Agazzi, Besurga, Delfino, Iotti, Wolter).
Bi: freno o stimolo alla creatività?
La constatazione, quasi unanimemente condivisa dai partecipanti, del largo impiego di Excel o di soluzioni analoghe (come alcuni strumenti analitici integrati in certe suite di applicazioni gestionali) da parte degli utenti, per eseguire in totale autonomia le proprie analisi sui dati, ha aperto la strada ad una discussione che ha investito quello che è uno dei temi di fondo relativi all’adozione di sistemi di BI in azienda. Ossia se la ‘intelligence’ sui dati vada fatta dall’It, sia pure tramite uomini e funzioni specializzate, o direttamente dagli utenti. Non è, evidentemente, una questione da poco, perché da essa dipende anche la visione che delle soluzioni di BI si avrà nell’impresa e della scelta da parte dell’It degli strumenti relativi.
Il punto, viene fatto osservare da più voci, è che se il marketing manager finisce per usare Excel è perché non vuole e non può servirsi di report preconfezionati dall’It. Questo perché se è vero che l’It conosce bene i processi aziendali, è anche vero che non può sostituirsi all’esperienza e alle conoscenze specifiche dell’utente nel proprio campo di responsabilità. Non può, in estrema sintesi, sapere ciò di cui l’utente ha veramente bisogno, per quanto, paradossalmente, sia questa la richiesta che a volte le giunge da parte del business. Un report elaborato su algoritmi di analisi pensati a supporto di una scelta da compiere in una data situazione non può essere adottato pari pari in un’altra situazione, per quanto questa possa sembrare analoga alla prima, perché possono variare molti elementi di contesto. In altre parole, occorre che lo strumento assista il manager senza frenarne la creatività (un termine cui si è fatto spesso uso nel dibattito) ma al contrario stimolandola, mostrandogli le opzioni possibili.
Se si escludono le situazioni in cui l’intelligence sui dati viene eseguita da una struttura aziendale specializzata, come è nel caso degli uffici studi e analisi di certe grandi imprese, l’opinione generale è che il compito dell’It si debba ‘limitare’ (si fa per dire) a realizzare strumenti per quanto possibile flessibili ed efficaci, da applicare a dati unificati, protetti e certificati come si è detto nel punto precedente, la cui importanza in un contesto di analisi delegate all’utente viene ulteriormente sottolineata. L’impegno nei confronti del business sarà quindi focalizzato sulla formazione e sul corretto impiego di tali strumenti, pronta ad intervenire qualora, da parte di utenti che sono sempre più educati all’uso delle tecnologie, ne emergano dei limiti o giungano dei suggerimenti. In una parola, dovrà preoccuparsi di ‘come’ fare, lasciando il ‘cosa’ a chi avrà poi la responsabilità delle scelte prese (Albini, Andolfi, Caprioli, Franchi, Galasso, Iotti, Rossi, Todaro).
Sybase per dati e analisi ad alte prestazioni
Nell’area delle soluzioni per la business intelligence, Sybase (www.sybase.com) ha un’offerta specifica che capitalizza la leadership e l’esperienza acquisite nei data base a supporto dei sistemi Real Time. Si tratta di Sybase IQ, un server di analisi altamente ottimizzato per la rapida distribuzione dei risultati forniti da sistemi di Data warehousing e da applicazioni analitiche e di reportistica mission-critical su qualsiasi dispositivo avente hardware e sistema operativo industry standard. Sybase IQ, che sfrutta l’elaborazione per colonne tipica dei Dbms Sybase, può gestire dati disomogenei, anche non strutturati, forniti da diverse fonti, e permette a migliaia di utenti di eseguire in contemporanea query ad elevate prestazioni con un ottimo rapporto prezzo-prestazioni. Sybase ha inoltre recentemente introdotto il nuovo Analytics Appliance, un prodotto di semplice impiego che integra software e hardware preconfigurati e predisposti per fornire avanzate funzionalità di analisi a supporto migliorando la risposta dei sistemi di Data warehousing aziendali.