La struttura It ha deluso le aziende o sono le aziende che non si sono adeguate ai cambiamenti suggeriti dall’It? Un dibattito accelerato da un numero sempre maggiore di inconvenienti e black out che si susseguono nelle imprese
La struttura It ha deluso le aziende o sono le aziende che non si sono adeguate ai cambiamenti suggeriti dall’It? Un dibattito accelerato da un numero sempre maggiore di inconvenienti e black out che si susseguono nelle imprese. L’evento Finaki dello scorso giugno (vedi nel dettaglio la sintesi dei lavori nell’articolo "Cio: alla guida della trasformazione o a rischio di estinzione"), che vede nei Cio i principali protagonisti, è stato decisamente interessante, anche grazie agli interventi di manager appartenenti ad altre famiglie professionali.
Nel dibattito con i responsabili degli acquisti di alcune grandi aziende italiane abbiamo potuto misurare la distanza e la conflittualità fra due modelli di riferimento, quello dell’Ict che cerca di portare avanti l’innovazione battendo nuove strade, anche rischiose e non completamente definite, e quello del Purchasing che mette al primo posto efficacia e contenimento dei costi.
Gli informatici accusano gli acquisitori di non essere al passo con le possibilità offerte dalla tecnologia e di costringerli ad operare in condizioni precarie; i secondi denunciano gli scarsi risultati ottenuti a fronte di promesse mai mantenute di riduzione di costi.
Ancora più significativa la testimonianza, peraltro davvero molto interessante, del manager di una grande azienda di abbigliamento, che ha apertamente dichiarato di considerare l’attività corrente dell’informatica come “un fatto scontato” (sic).
Chi ha ragione? Siamo noi, come categoria, ad aver deluso le aspettative delle nostre aziende e a gestire attività “normali” facendole passare come fin troppo complesse per giustificare la nostra incapacità di cogliere gli obiettivi?
La risposta non è facile, ma alcuni eventi accaduti negli ultimi mesi possono aiutarci a meglio comprendere il contesto in cui ci muoviamo.
Nel primo semestre di quest’anno c’è stata una recrudescenza di attacchi alla sicurezza dei sistemi di alcune grandi aziende e istituzioni. Il caso Sony, con il furto dei dati personali di alcuni milioni di clienti, è solo quello più eclatante, ma non dimentichiamoci di Wikileaks: stiamo parlando di dati del Dipartimento di Stato, della Cia ecc., mica della rosticceria all’angolo!
Restringiamo il perimetro geografico: nell’arco di pochi mesi in Italia si sono bloccati a distanza ravvicinata di tempo, quasi si trattasse di omicidi seriali, i sistemi delle Poste Italiane, di Banca Intesa-Sanpaolo e delle Ferrovie dello Stato, con ingenti danni operativi e di immagine.
La colpa è sicuramente dell’informatica, ma di quale: quella delle aziende che non hanno saputo prevedere le adeguate protezioni per i loro sistemi, oppure quella dei fornitori di sistemi e servizi?
Nel caso italiano è stato fin troppo facile fra gli addetti ai lavori affibbiare il ruolo di serial killer al maggiordomo di turno, quello grosso con la livrea Blu, per intenderci; ma è davvero così?
La mia opinione è che non si possa attribuire la colpa a un solo soggetto, ma che ci sia un’ampia corresponsabilità all’interno delle aziende e non solo nel settore informatico.
Da aspirante avvocato difensore, cercherò di motivare questa richiesta di riduzione di pena per l’intera categoria a omicidio preterintenzionale, anche sviluppando le considerazioni citate in apertura.
Cominciamo con il dire che le cadute di sistema non sono affatto una novità del momento. Chi ha un minimo di esperienza gestionale nell’Ict ne ha affrontate sicuramente un certo numero nel corso della sua carriera, e chi nega è l’equivalente informatico del Papero Gastone oppure millanta la sua esperienza.
Gli utenti: controllori preparati
Penso poi che tutti abbiano vissuto da utenti l’esperienza di recarsi presso un centro servizi, che fosse una biglietteria o una banca, e di trovarsi di fronte impiegati imbarazzati che sbirciavano ansiosi uno schermo immobile come un piatto di mortadella sperando in qualche segno di vita. No, non è una novità, ma finché lo schermo era orientato esclusivamente verso la faccia degli impiegati il problema era contenuto e le spiegazioni, anche quelle più esoteriche, erano possibili.
Ma oggi gli utilizzatori si sono moltiplicati, Internet ha aperto le porte a milioni di utenti, ampliando utilizzo, conoscenza e cassa di risonanza per i disservizi.
Se vogliamo proprio dircelo, il fatto di non poter risolvere in camera caritatis i nostri problemi è stata una sfortuna tremenda; non solo il povero Cio è bastonato dall’interno (con sempre maggior forza…), ma viene pure preso in mezzo da stampa, comunicazione varia e utenti imbestialiti che scaricano attraverso mail e blog tutta la loro frustrazione.
Fenomeno non nuovo quindi, ma che ha assunto maggiore gravità anche a causa dell’allargamento delle porte di accesso.
Più utenti=sistemi meno sicuri? Si, ma per capire il perché occorre fare un secondo passo nella ricostruzione del crimine e capire come si sono allargate le porte.
Non dimentichiamo che l’It si trova sempre più spesso ad operare con pressanti vincoli di tempo e di costo, quindi una soluzione spesso adottata per rispondere a esigenze di apertura agli utenti esterni è quella di costruire ambienti di front-end con nuove tecnologie ma lasciando in back-end i vecchi sistemi core dell’azienda.
In una azienda di servizi, ad esempio, il sistema di booking può essere ancora quello degli anni ’70 o ’80, ma il modo con cui essa si interfaccia utenti interni ed esterni dovrà essere aderente ai nuovi crismi della rete.
Questo approccio è spesso adottato nelle grandi organizzazioni e risponde non solo a criteri di contenimento di costi e tempi ma ha anche il non trascurabile vantaggio di non dover ricertificare sistemi e processi del core business, di cui spesso si è smarrita memoria in un mondo dove degli analisti di organizzazione si è pure perduta traccia e dove sovente solo il sistema informativo è biblioteca unica di scelte e motivazioni. Nella pratica, è un’operazione tipica da retrofitting automobilistico: intorno alla meccanica di una utilitaria si mette una carrozzeria da gran turismo con interni spaziali, navigatore compreso.
Sistemi… “infernali”
Ma è lo stato complessivo dei nostri sistemi a destare preoccupazione, più che una singola applicazione.
Nel tempo si sono infatti sovrapposti strati disomogenei di software applicativo, tecnologie ibride, middleware di comunicazione per connettere servizi e dati, grandi package alimentati da centinaia di interfacce, il tutto a formare una infernale “lasagna” multistrato che assume quasi vita propria, nella tradizione dei migliori film dell’orrore.
Se poi per caso si rompe un oggetto un po’ datato, ad esempio un software di comunicazione inventato negli anni ’70, i rimedi possibili sono due: il classico reset (sperando nel miracolo) oppure la ricerca disperata dei pensionati che hanno ancora vaga conoscenza dell’assembler (e non sto scherzando: il mercato dei cobolisti/assembleristi pensionati è fiorente negli Usa).
Vogliamo definire ulteriormente il quadro? Parliamo di infrastrutture fisiche. Oggi i grandi calcolatori convivono con migliaia di server di diversa natura, in un network complesso a piacere in cui i punti di rottura globali sono in realtà aumentati rispetto al passato. Si tende a concentrare in poche unità il traffico dati e di rete, con il bel risultato che se uno di questi oggetti, controller o router per esempio, si rompe (e nella vita prima o poi si rompe tutto….) l’intera macchina si ferma.
E i sistemi di Disaster Recovery? Ragazzi, abbiamo appena visto come hanno funzionato nelle occasioni citate!
La verità è che se non ci fossero organismi esterni (per esempio la Banca D’Italia per le banche italiane) ben poche aziende si doterebbero di un sistema minimale di garanzia, che consenta magari non di gestire un back-up caldo ma che almeno dia la certezza di ripartire senza troppi danni in tempi definiti.
Tutto questo è colpa degli informatici? Be’, in parte si, perché non hanno saputo convenientemente spiegare ai propri stakeholder quale rischio si correva nel non prevedere un aggiornamento dei sistemi critici e un’adeguata strategia di business continuity. Insomma, un po’ timidi (è un eufemismo) e un po’ furbetti, magari qualche volta incompetenti. Ma dall’altra parte chi hanno trovato?
Hanno trovato aziende che hanno preferito comportarsi come le tre scimmiette (non vedo, non parlo e soprattutto non sento), che hanno mandato gli acquisti a contrattare non sulla qualità ma sul prezzo, che hanno preferito mettere le pezze dove era ora di cambiare vestito. Se poi anche i manager illuminati, quelli che hanno dato una svolta positiva al business, pensano che la gestione di un sistema informativo aziendale, in queste condizioni, sia un fatto scontato… allora siamo fritti.
Il nostro non è un mestiere banale, ogni giorno dobbiamo fare i conti con una complessità tremenda e le decisioni che prendiamo se positive non lasceranno traccia in azienda, ma se negative la metteranno in ginocchio.
Dobbiamo quindi fare uno sforzo per comunicare meglio questa complessità, giustificando la necessità di interventi di lungo termine che consolidino questa struttura “ballerina”, usando l’unica lingua che fa da esperanto nel mondo-azienda: quella dei costi per la rischiosità del sistema.
I passi sono semplici, almeno in teoria:
– valutazione della complessità strutturale;
– valutazione del rischio in caso di fault;
– piano di adeguamento;
– piano di qualità;
– piano di Business Continuity che, come detto, assicuri almeno la certezza della ripartenza a dati integri.
So perfettamente che non dico cose nuove, ma è il momento di dirle con maggior forza, perché alla prossima occasione potrebbe toccare a voi ballare il valzer delle responsabilità; ma tutti devono fare la loro parte, a partire dai manager che non devono sottovalutare la complessità e dagli acquisti che devono tenere nel dovuto conto la qualità, il cui costo va letto come investimento a lungo termine. Buone riflessioni!
* = Marco Forneris è un professionista che opera nel campo dell’informatica e dell’organizzazione dagli anni ’70. Laureato a Torino, ha insegnato nella locale Università per un paio d’anni prima di cominciare la sua carriera in Olivetti.
Ad inizio degli anni ’80 ha fondato insieme ad alcuni ex compagni di corso una delle più importanti società italiane nell’ambito dell’automazione industriale, ceduta in seguito ad una multinazionale francese per la quale ha ricoperto importanti incarichi in Europa. È stato successivamente Chief Information Officer di: Il Sole 24 Ore, Assicurazioni Generali, Gucci, Fiat e Telecomitalia. Attualmente si occupa di Merge&Acquisition e Business Development per aziende di Information Technology, per Private Equity e per Banche d’affari.