Da 20 anni in IBM, Jamie Thomas è oggi General Manager for Strategy & Development per IBM Systems.
Thomas, che negli anni si è occupata di alcuni dei capisaldi della strategia software della società, da WebSphere a Tivoli, passando per Rational, oggi ha un focus molto forte sull’hardware, tanto da lamentare una certa carenza di “quote rosa” in questo settore, a differenza del software, dove la presenza femminile è invece significativa.
In Italia, per una serie di incontri con partner e clienti, abbiamo avuto modo di confrontarci con lei su alcuni dei “temi caldi” del mercato.
Cognitive e Machine Learning chiedono nuovi hardware e software
Innanzitutto Jamie Thomas ha tenuto a chiarire perché l’hardware resti sempre così importante per una realtà come IBM.
«Crediamo che l’innovazione nell’hardware sia necessaria per rispondere ai bisogni che vengono dal mondo dei Big Data e del Cognitive Computing. È un focus sull’hardware non distinto dal software, che indirizza in generale le sfide del mondo delle imprese».
Le sfide interessano tutte le imprese, senza distinzione.
«Certo – ha proseguito – pensiamo subito alla risk analysis nel settore finance, ma poi l’evidenza è che tutto quanto ha a che vedere con gli Analytics richiede un’enorme quantità di potenza cognitiva. Per non parlare poi di tutto quanto è correlato con il Machine Learning. Ecco allora che andiamo ad abbracciare il mondo dei servizi, dell’automotive o ancora tutto il Retail con la sua Supply Chain».
Tre asset in una strategia data driven
Secondo Jamie Thomas tre sono gli asset indispensabili in una strategia orientata al dato.
- Il primo è avere gli insight giusti nel tempo giusto «Perché se ci si mette troppo tempo si perdono le opportunità».
- Il secondo asset è gestire gli economics dei dati. «Questo significa – ha spiegato Thomas – che la gestione del dato, l’intero ciclo di vita del dato deve essere gestito in una modalità cost effective. E quando si parla di grandi quantità di dati la questione non è così banale».
- Il terzo asset, infine, è la sicurezza dei dati, tenendo ben presente che i metodi tradizionali di protezione non sono sufficienti e che la sicurezza deve essere esattamente lì dove sono i dati.
Tre domande e le risposte di IBM
Un’azienda che voglia orientare al dato la sua strategia deve dunque porsi tre domande:
- Come abbiamo gli insight?
- Come li gestiamo?
- Come li rendiamo sicuri?
Per tutte e tre queste domande IBM ha la risposta.
«Per quanto riguarda gli insight, c’è la nostra cognitive system architecture che ci garantisce velocità, affidabilità, accelerazione. Basti pensare ad esempio a come i nostri Power Systems con GPU Nvidia garantiscano una interconnessione ad alta velocità per accelerare i processi sui dati».
Per quanto riguarda invece gli economics sui dati, la risposta è immediata: software defined storage e flash storage. È l’unico modo, secondo la manager, per poter fare uno scale up dei dati e segmentare i dati mantenendo anche un’efficacia sui costi.
«Certo – prosegue Thomas – è necessario che ogni azienda stabilisca una propria policy dei dati, per segmentare correttamente i propri database. Bisogna saper distinguere correttamente tra i dati cold, che possono essere inviati verso il tape o sul cloud, e quelli hot sui quali bisogna lavorare».
Infine la sicurezza: inevitabile, per Jamie Thomas, il riferimento ai sistemi Z14, annunciati nel corso dell’estate, che rappresentano il livello massimo di sicurezza nei dati. «Ma è importante sapere che IBM rende i dati sicuri a qualsiasi livello».
Per la manager è importante guardare ai dati in modo diverso rispetto a quanto si fa con le architetture tradizionali.
«Non si tratta semplicemente di virtualizzare. Quando si tratta di big data si parla di architetture diverse e, soprattutto si parla di automazione. Muoversi verso architetture software defined significa poter gestire con un maggiore livello di automazione grandi quantità di dati».
Le killer application guidano le scelte software defined
Ma cosa può spingere un’azienda a muoversi verso architetture software defined?
«Sicuramente ci vuole una killer application. Per questo il settore che per primo si è mosso in questa direzione e che anche attualmente è quello più pronto sul tema è quello dell’healthcare e delle LifeScience. Basti pensare che quando ci si riferisce a un paziente si parla di un minimo di un terabyte di dati, che salgono facilmente a 15 nel corso del tempo».
Al secondo posto Jamie Thomas cita il mondo finance. «È un settore nel quale il risk management cresce a livelli esponenziali e che utilizza sempre nuovi servizi: basti pensare, ad esempio, al riconoscimento facciale agli sportelli automatici. Sono tutti servizi che richiedono grandi capacità cognitive».
Jamie Thomas cita ancora il mondo automotive, che lavora in ordini di terabyte di dati per arrivare ai social data: «Sono dati che possono servire caldi, per analisi in real time, ma che hanno poi una loro vita da freddi, per rappresentare le situazioni in un determinato momento nel tempo. Applicazioni? Penso in primo luogo alla gestione della sicurezza degli eventi».
La forza dell’ecosistema
In questo scenario IBM si muove in una logica di ecosistema. Anzi, di nuovo ecosistema costruito intorno a OpenPower. «Parliamo di ISV ma anche dei player del mercato open source. Al momento fanno parte dell’ecosistema circa 300 realtà: questo ci consente di creare la giusta innovazione e di portare le soluzioni innovative verso il mercato».
Prossima frontiera: il Quantum Computing
Infine, Jamie Thomas non può non guardare alla prossima frontiera dei dati: il Quantum Computing.
«Con questa spinta sempre più forte sul dato e sugli analytics, le architetture tradizionali finiscono per non essere più sufficienti. Per questo con i nostri progetti di Quantum Computing pensiamo di indirizzare quel mondo che andrà oltre le tradizionali architetture CMOS. Il Quantum Computing non sostituirà il modello transazionale attuale, ma sarà una opportunità in più, sulla quale vogliamo coinvolgere di nuovo un ecosistema».
Il modello business? Cloud based: su questo Thomas è chiara.
«Il Quantum Computing poggerà su un modello cloud: dal cloud daremo accesso alla nostra potenza computazionale, lo stack software sarà accessibile grazie a nuove API e sarà più semplice l’onboarding di chi sviluppa».