MILANO – Da nove mesi “in sella” come general manager della Divisione Storage di IBM, Ed Walsh ha oggi un compito importante: aiutare Big Blue a cavalcare l’onda del cambiamento che sta investendo tutti gli aspetti della memorizzazione e fruizione dei dati. “È questa sfida che mi ha convinto a tornare in IBM – spiega Walsh, che ha lavorato per IBM Storage dal 2010 al 2013 e quindi guidato come CEO quattro startup storage negli ambiti della data compression e software-defined management -. Un momento di grande cambiamento per molti clienti, determinato dallo sviluppo del cloud e, sul fronte business, dall’apparire di agguerriti concorrenti digitali”. Un contesto che ha impegnato anche IBM: “Nel creare percorsi di transizione per i clienti, facendo leva sulla capacità di fare ricerca, acquisizioni e di unire esperienze di settori differenti”. Walsh rivendica di aver focalizzato la migliore strategia nello storage, che punta sull’impiego delle memorie a stato solido flash, sul software per l’automazione della gestione oltre che su una vasta gamma di prodotti. “Dobbiamo garantire ai clienti soluzioni ‘future proof’ finanziando ricerche nelle università e startup. C’è grande esigenza di modernizzare gli ambienti tradizionali e lo storage ‘all-flash’ rende tutto più veloce e meno costoso, liberando fino all’80% del tempo impiegato dai team per planning e provisioning. La tecnologia flash aiuta a trasformare il lavoro dei data scientist, garantendo alte prestazioni ai nuovi ambienti database”.
Primo fornitore nel campo del software defined storage (dati IDC) e solo terzo (con il 10,1% di quota di mercato, dati IDC Q4 2016) tra i vendor di storage d’impresa, IBM scommette che la tecnologia 3D Nand Flash (le celle di memoria vengono collocate in senso verticale offrendo in questo modo la possibilità di realizzare dispositivi di storage con capacità triple rispetto a quanto possibile dalle tecnologie precedenti) potrà sparigliare le carte: “Memorie con capacità analoghe alle flash e alla memoria centrale dei sistemi rivoluzioneranno i tradizionali concetti di storage – spiega Walsh -. Vedremo nuove architetture server dotate di interconnessioni veloci, che permetteranno di svolgere nuovi compiti”.
Anche il software giocherà un ruolo sempre più importante nella gestione dello storage. “Un unico set di API (application programming interface) rende possibile gestire facilmente storage pre-esistente e in cloud, avvalendosi delle stesse risorse su tutta l’infrastruttura, come per esempio, il data masking per proteggere i dati”, continua Walsh . Il prossimo passo è l’applicazione delle tecnologie analitiche e cognitive alla gestione: “Abbiamo già realizzato degli esempi di applicazione della tecnologia Watson nella gestione dello storage; l’aggiunta dell’intelligenza nella gestione dei metadati potrà avere una portata più ampia a livello dell’IT. Stiamo facendo ricerca”.