Poliglotta, scalabile e gestibile. La Data Strategy di Quantyca per affrontare il cambiamento

I dati alimentano la corsa verso l’innovazione, ma è necessaria la giusta architettura IT e una corretta data strategy per stare al passo con le crescenti esigenze del mercato. Se non si vuole deragliare

Pubblicato il 13 Lug 2018

Talend Data Fabric: come Getlink adotta la strategia Data as a Service

L’innovazione galoppa, e non guarda chi si lascia indietro: bisogna abituarsi al cambiamento continuo e al fatto che questa condizione stia diventando uno standard di normalità. Ormai la corsa verso i mercati di domani, o anche solo per stare al passo con quelli attuali, ha preso delle velocità tali che richiedono ai partecipanti di essere adeguatamente attrezzati per poterla sostenere. E la fonte principale di carburante che fa viaggiare sempre più in fretta è rappresentata dai dati, la cui analisi e gestione attraverso una corretta data strategy può scatenare nuove dinamiche di business, molte delle quali fino ad oggi inespresse.

«Le architetture IT presenti in azienda devono essere in grado di evolversi con il mutare delle esigenze delle aziende: siamo ormai nel pieno della quarta rivoluzione industriale, dove le tecnologie stanno abilitando un cambiamento repentino dei modelli di business a cui siamo abituati» ha commentato Andrea Gioia, CTO e partner Quantyca, società specializzata nel data management, in occasione di un incontro dall’esplicativo titolo: “Change is the new Normal”.

Un cambiamento che, dicevamo, rischia di deragliare se non è supportato da architetture adeguate, e Quantyca illustra la propria data strategy di approccio all’innovazione, proponendo una Data Platform che risponde a quattro requisiti fondamentali: apertura al poliglottismo, message driven, scalabile e che sia data governance by default.

«Nessun settore può sentirsi esonerato dal cambiamento: i rischi sono troppi, e i new camer sono pronti a prendere il posto di chi rallenta – prosegue Gioia -, il vantaggio competitivo è sempre più ridotto e le aspettative di vita delle aziende si riducono. Non c’è alternativa: bisogna difendersi e predisporsi al cambiamento, con modelli dove la velocità di esecuzione diventa il nuovo vantaggio competitivo rispetto agli altri».

Ambienti poliglotti: flessibilità e specializzazione nella gestione dei dati

Un ripensamento dell’approccio al business che è possibile attraverso la tecnologia, l’IT, vero motore del cambiamento e che può trasformare ogni azienda in una software company, con la tecnologia al centro dei processi decisionali. Anzi, “le” tecnologie, come sottolinea Francesco Gianferrari Pini, founder e partner Quantyca, promuovendo il tema del poliglottismo tecnologico necessario per affrontare il cambiamento: «In una corretta Data Strategy, non bisogna far convergere i dati in una sola tecnologia, ma scegliere quelle più adatte che consentano, insieme, di modellare il dato adeguatamente. Le tecnologie computazionali e analitiche in questo modo possono compensarsi per estrarre valore dai dati, con il mondo analitico che deve essere parte integrante della piattaforma computazionale. Non è necessario, infatti, accedere sempre al data base centrale per cercare i dati, e alcuni esempi di alternative già esistono, come il Caching, Hadoop, SQLServer Columnstore o Oracle Column-oriented data storage. L’approccio poliglotta che si applica all’ambito analytics parte da applicazioni monolitiche per andare fino ai microservizi, con il vantaggio di non “violentare” una tecnologia ma usarne tante specializzate ognuno per il proprio compito, con il risultato di avere un maggiore utilizzo delle risorse e più agilità nello sviluppo. Ovviamente è necessaria una data strategy che si appoggi a un’architettura in grado di gestire il poliglottismo, nella sua integrazione fra i componenti e una corretta governance degli stessi».

La confusione dei dati risolta dai message broker

I rischi derivanti dall’utilizzo di una architettura poliglotta sono intuibili. Con l’aumento della eterogeneità delle tecnologie, aumenta la possibilità di fare confusione e di creare “incomprensioni” tra le varie componenti. Per evitare il caos, le componenti non devono comunicare punto-punto, ma attraverso messaggi, gestiti mediante un message brokerche metta ordine e che non abbia complessità al suo interno, il quale quindi deve avere poca potenza applicativa per non complicare e rallentare il processo.

«Esistono due diverse tipologie di broker – segnala Andrea Gioia -: Enterprise Service Bus (ESB), che è centralizzata ed è tipica delle architetture SOA; e le architetture a microservizi, che rinuncia alla centralizzazione comunicando tra loro tramite BUS, facendo passare i dati da un servizio all’altro. Queste possono coesistere, in architetture ibride, in maniera del tutto trasparente per il consumatore, il quale potrà accedervi tramite API Gateway».

L’IT che cresce con il crescere delle esigenze

Un ulteriore aspetto fondamentale che viene richiesto a una Data Platform in grado di seguire le evoluzioni dettate dal cambiamento è, ovviamente, la scalabilità. In un contesto di difficile previsione degli investimenti in infrastruttura in base alle richieste altalenanti o crescenti di esercizio, la scalabilità e flessibilità diventano davvero indispensabili per una risposta che deve essere veloce.

«Le infrastrutture devono essere in grado di adattarsi ai volumi crescenti di dati – conferma Pietro La Torre, innovation engineer di Quantyca -, con una scalabilità che deve essere innanzitutto infrastrutturale, per reagire a picchi improvvisi e rispondere in modo adeguato nel caso che la mole dei dati da processare raddoppi; che sia economica e temporale, con una definizione del livello di automazione (e dei costi) utile per il tempo che viene utilizzata per test e sviluppo. E, infine, deve avere una dimensione cognitiva, per una scalabilita cognitiva utile in caso addestramento di modelli di machine learning». Una scalabilità che, quindi, ha come effetto l’acquisizione di una maggiore agilità di business, oltre che infrastrutturale. Affrancandosi dalla gestione della complessità infrastrutturale per dedicarsi alle idee e al business, e che nasce da un nuovo modello nella gestione della data strategy e della data governance, proprio per fare fronte alla complessità che si viene a creare.

In una corretta data strategy la potenza è nulla senza controllo

Ultimo aspetto, ma tra i più importanti della piattaforma Quantyca, nella gestione del cambiamento veloce, è la Data Governance: vero e proprio timone della trasformazione, senza una corretta gestione del quale il rischio è il sopravvento del caos e l’inondazione incontrollata da parte dei dati.

«Bruciati i vantaggi competitivi tradizionali, l’unico vero punto di forza rimane la capacità di gestire il cambiamento – dichiara Guido Pelizza, partner Quantyca -. Si devono prendere decisioni velocemente e ripensarne l’approccio, e con le nuove tecnologie oggi è possibile. Ma il cambiamento deve essere governato, altrimenti si rischia di andare fuori controllo. E in questo il GDPR ha dato un certo contributo, chiedendo di mappare, dare una categorizzazione ai dati, gestire i processi e definire categorie di recipienti di dati. In modo da affrontare una governance dei dati che coinvolga i vari ambiti dell’azienda, dall’IT developer, al DPO, fino ai data scientist».

Dal canto suo, il vendor ha affidato a Blindata, una società del gruppo, lo sviluppo di una Data Platform che beneficia delle funzionalità della piattaforma di data governance di Quantyca, o di terzi, per governare la compliance al GDPR, potendo intercettare dove i dati sono registrati e capire quali trattamenti sono stati fatti sui dati stessi, mediante una registrazione dei consensi. Uno strumento necessario soprattutto oggi, alla luce della normativa, che permette di tenere un registro dei trattamenti dei dati costantemente aggiornato e di agire in caso di richiesta di eventuale dell’interessato, per soddisfare i suoi diritti di verifica, di accesso ai propri dati e anche fino all’oblio.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 4