L’evento si chiama “IBM Systems TechU”, e l’ultimo appuntamento europeo si è svolto a Roma dal 22 al 26 ottobre. Si tratta di una serie di sessioni di aggiornamento sulle nuove soluzioni e tecnologie di Big Blue, affrontate essenzialmente dal punto di vista tecnico: un appuntamento che Ibm rivolge ai propri dipendenti, ai propri clienti e ai propri business partner del vecchio continente. Un’occasione che quest’anno ha presentato tra le oltre 500 sessioni di formazione un focus sull’Intelligenza artificiale e il machine learning, tecnologie attorno alle quali sta crescendo l’interesse degli addetti ai lavori. A illustrare in un’intervista a BigData4Innovation il senso dell’iniziativa e i temi che sono emersi dall’ultima tappa è Axel Koester, IBM Storage Chief Technologist all’European Storage Competence Center (ESCC) che ha la propria sede principale a Francoforte, Germania.
Dottor Koester, cosa emerge da questo evento internazionale?
L’aspetto principale, dal mio punto di vista, è che, oggi più che mai, tutti sono alla ricerca di un orientamento. Trovo che questo evento si sia trasformato nel tempo: inizialmente era un semplice insieme di sessioni di formazione, ma progressivamente ha iniziato a rivolgersi anche ai clienti, che apprezzano molto il livello di discussione tecnica. Qui non facciamo marketing, ma andiamo a fondo sulle caratteristiche tecniche dei prodotti. Questo è il posto in cui si può capire perché vengono fatte certe scelte, che difficilmente avvengono per caso o per coincidenza. E d’altro canto quello che esce da questi incontri spesso ha un’influenza molto diretta sulle nostre attività e le nostre scelte, qui ci sono gli architetti dei nostri prodotti che ascoltano e prendono spunto dalle discussioni a cui partecipano. I clienti oggi sono alla ricerca di una consulenza tecnica completa, per capire quali siano le soluzioni tecnicamente migliori per loro.
Cosa caratterizza il mercato europeo, e quali sono le soluzioni emergenti per le imprese, anche nel campo delle Pmi?
Ibm ha per vocazione un’attenzione forte verso le grandi imprese, ma le conferenze regionali come TechU sono i momenti ideali anche per le realtà più piccole per avere davvero il polso della situazione, per capire cosa si sta muovendo intorno a loro e quali siano le soluzioni a cui avvicinarsi. Quanto alle nuove tecnologie, in questo periodo tutto è più veloce, stiamo assistendo a un cambio di paradigma, comparabile a quando vennero introdotte le prime SAN al posto delle unità disco locali. Con il nuovo protocollo di storage “Non Volatile Memory express” (NVMe), creato per velocizzare il trasferimento dei dati da e verso i sistemi Flash, l’accesso allo storage diventa paragonabile a come lavorare con la memoria virtuale, senza la necessità di passare attraverso la code del sistema operativo. Ciò consente di risparmiare un sacco di tempo e di carico della CPU sui server di produzione, che ora possono fare di più con meno. E questo apre una serie di nuove possibilità anche per i programmatori. Molti di coloro che lavorano nell’open source e partecipano a progetti di ricerca con Ibm e con altri player all’interno della community Linux hanno subito adottato questa novità. L’impatto dell’NVMe sulle applicazioni legacy è probabilmente già un grande passo in avanti sia sul piano della velocità di trasferimento dei dati che della latenza in termini di microsecondi. Ma c’è un impatto probabilmente più forte in chiave futura, al di là del tema delle performance.
C’è molta attenzione sui machine learning, deep learning, intelligenza artificiale. Qual è l’impatto di queste tecnologie?
Ibm ha fatto un grande lavoro di marketing nel far conoscere il supercomputer Watson, che nell’arco di pochi anni è universalmente considerato come sinonimo di intelligenza artificiale. Ma Watson non è un unico cervellone elettronico, è un insieme di servizi in cloud anche molto diversi tra loro. La bellezza di questo approccio però è che l’intelligenza artificiale che viene sviluppata di volta in volta può essere resa disponibile dal giorno dopo per tutti, e migliora progressivamente. Soprattutto in Europa, però, non tutti vogliono utilizzare i servizi cloud per le operazioni “interne” alle aziende, e questo apre la possibilità di sviluppare un “Watson privato” all’interno del data center aziendale, in un private cloud. Altri clienti ancora apprezzano che abbiamo sviluppato queste soluzioni, ma ne vogliono una che non sia quella che hanno a disposizione tutti gli altri, per essere più competitivi. Così chiedono aiuto per sviluppare un modello di intelligenza artificiale che rimanga di loro proprietà e sia pensato esclusivamente sulle loro esigenze. Ne abbiamo parlato proprio qui in questi giorni: in questo caso possiamo offrire semplicemente un “toolbox” e tutta l’assistenza necessaria per fare in modo che i clienti possano creare il proprio modello di intelligenza artificiale. Questo strumento è in grado di lavorare in autonomia, come un vero e proprio data scientist, senza richiedere competenze troppo sofisticate a chi lo dovrà utilizzare.
Quali sono le priorità della vostra strategia come competence center europeo sullo storage in termini di ricerca e sviluppo?
In Europa abbiamo grandi centri di ricerca, e il competence center europeo sullo storage ha la propria sede centrale vicino all’aeroporto di Francoforte, ma le attività sono diffuse in tutta Europa e possiamo lavorare con molta flessibilità. Uno degli argomenti del momento è l’implicazione etica dell’intelligenza artificiale, ovvero su cosa succede nel momento in cui l’intelligenza artificiale non si limita a dare raccomandazioni ma è in grado di prendere decisioni. Come evitare che un problema dovuto al training possa infiltrarsi all’interno di un processo automatizzato? Come eliminare pregiudizi e preconcetti umani durante la progettazione del modello? A volte basta semplicemente dare qualcosa per scontato per produrre conseguenze negative, che possono tradursi in discriminazioni di genere o su basi etniche, e nella maggior parte dei casi questo accade semplicemente perché è stato sottovalutato qualcosa quando si sono date le istruzioni al sistema di autoapprendimento. Oggi siamo molto focalizzati su quale sia l’effetto delle persone che fanno training sull’intelligenza artificiale e questo è il campo della ricerca oggi più interessante a mio avviso, anche se per il momento non è destinato ad avere ricadute immediate.
Avverte che oggi ci sia un problema di skill?
Man mano che andremo avanti avremo sempre meno specialisti per ogni cosa, in quanto “tutto” diventa sempre più diversificato. Non è una sfida solo per Ibm, è una sfida per tutti. L’intelligenza artificiale potrà essere utile nei casi in cui non servirà inventare, ma semplicemente ottenere il massimo dall’osservazione e dall’analisi. E grazie all’intelligenza artificiale potremo dedicare molte persone a fare lavori più creativi o di più alto valore. Ci sarà da stabilire volta per volta cosa potrà essere definito una commodity, su cui sarà possibile delegare la produzione a terzi per concentrarsi sui processi a più alto valore aggiunto. Ogni volta che un aspetto diventa una comodità si potrà lasciare che a occuparsene sia qualcun altro, e lasciare che i nostri dipendenti si dedichino a qualcosa di nuovo.
Il Cloud suscita spesso preoccupazioni sulla sicurezza dei dati. Sono fondate?
Il modo più semplice di convincere qualcuno è quello di proporgli un private cloud, dove il cliente tiene per se le chiavi di criptaggio dei dati e di autenticazione. Ma se si usa un cloud service pubblico con criptaggio e autenticazione, questo sevizio può ugualmente definirsi ben protetto quanto la propria versione locale. A volte è soprattutto una quesitone psicologica. Ibm dal canto suo ha una storia importante di sicurezza, e questo vuol dire poter avere la fiducia dei propri clienti, che in questo campo è fondamentale. Il Cloud Ibm ha un’ottima immagine per le imprese che lo utilizzano, ma nonostante questo ce ne sono molte che decidono di voler avere servizi cloud anche sui propri data center, ed è per questo che IBM sostiene la strategia multi-cloud.
Koester (IBM): “L’NVMe rivoluzionerà il mondo dello storage”
Intervista al Chief Technologist dell’European Storage Competence Center (ESCC) di Big Blue: “Il nuovo protocollo ‘Non volatile memory express” apre una serie di nuove possibilità anche per i programmatori”. Sull’AI: “Utile per ottenere il massimo da osservazione e analisi. Grazie all’intelligenza artificiale potremo dedicare molte persone a fare lavori più creativi o di più alto valore”
Pubblicato il 31 Ott 2018
Who's Who
Aziende
Argomenti
Canali
Speciale Digital360Awards e CIOsumm.it
Articolo 1 di 5