Il panorama recente dell’IT è attraversato da tendenze diverse e talvolta contrastanti che, però, hanno una caratteristica comune: quella di contribuire, giorno dopo giorno, alla creazione di un volume di dati digitali mai osservato prima nella storia. Anche se in maniera inconsapevole, tutti noi produciamo dei dati durante le nostre navigazioni in Internet o utilizzando applicazioni nella nostra vita professionale. Questi dati non sono semplicemente accumulati, ma sono sempre più utilizzati dalle imprese di tutto il mondo per identificare i clienti target e vendere i loro prodotti e servizi. Riuscire ad esempio a incrociare i dati demografici di un cliente con le sue preferenze personali, magari lasciate sui social network, rende più semplice prevederne il comportamento di acquisto e suggerire delle proposte commerciali su misura.
Si tratta del cosiddetto approccio orientato all’utente, ad esempio utilizzato da aziende come Airbnb o Uber, che grazie a un massiccio utilizzo dei dati a disposizione – sapientemente integrato con tecnologie come intelligenza artificiale e realtà aumentata – rende possibile introdurre sul mercato prodotti e servizi innovativi, realmente disruptive rispetto alla concorrenza. Una delle grandi differenze rispetto al passato, dove comunque i dati erano impiegati, risiede nella possibilità di utilizzarli per cercare di prevedere le tendenze del mercato e, sulla base di queste, mettere a punto delle opportune strategie di business. Già in questa fase le aziende che riescono a sfruttare i dati stanno guadagnando terreno, riuscendo ad acquisire quella carica di innovazione decisiva per la sopravvivenza stessa in un contesto economico sempre più complesso. È la cosiddetta rivoluzione dei Big Data, che a sua volta è resa possibile dalle tre V: volume (oggi abbiamo a che fare con un volume di dati molto superiore rispetto a passato), velocità (nella capacità di elaborare questi dati) e varietà (dati che affluiscono da svariate fonti, compresi ad esempio i social o i video).
Non a caso il giro d’affari legato ai Big Data è estremamente consistente e in continua crescita: nel 2018 si stimano 166 miliardi di dollari, destinati a diventare 260 nel 2022. Ma già nel 2019, secondo un report appena rilasciato da DXC, società specializzata nei servizi IT, lo sfruttamento delle informazioni dovrà diventare una competenza di base per le organizzazioni di tutti i settori. In particolare, gli strumenti di machine learning saranno fondamentali per accelerare i tempi di risposta. Dati gli enormi volumi di dati in ballo, le aziende devono infatti essere capaci di reagire sempre più rapidamente ai dati, soprattutto considerando che il loro valore decade nel tempo. Il valore è infatti più alto nel momento in cui i dati vengono creati (ad esempio, quando un’auto da corsa gira intorno alla pista) ma diventa molto più in basso appena pochi minuti dopo, a fine corsa. In determinati contesti può essere addirittura meglio agire in base a una forte probabilità di avere ragione, piuttosto che averne la certezza assoluta, se questo serve a guadagnare in rapidità di esecuzione.
A queste esigenze rispondono le tecnologie di analytics messe a disposizione da DXC, che consentono alle aziende di avere rapidamente a disposizione (tramite un modello pay per use) quegli approfondimenti necessari per accelerare il proprio viaggio di trasformazione digitale. Gli analytics di DXC, equipaggiati con soluzioni di intelligenza artificiale, sono divisi in diverse famiglie (ad esempio una soluzione specificatamente dedicata al mondo industriale) così da rispondere agli specifici bisogni di governo dei dati delle aziende. Inoltre, le funzionalità di analytics di DXC sono disponibili anche in cloud, grazie a una stretta partnership stipulata con il provider AWS.