New storage? Tutte le declinazioni dell’offerta

Le performance oggi richieste all’infrastruttura It non si possono ottenere basandosi su un paradigma dello storage limitato agli aspetti capacitivi. L’allineamento di questa componente strategica con le applicazioni ne richiede un ripensamento. Le tecnologie ci sono. ZeroUno ne ha parlato con alcuni dei principali vendor in questo ambito.

Pubblicato il 19 Feb 2015

Mappare le attuali esigenze di business con i trend tecnologici dello storage, per andare poi a vedere come ogni vendor interpreta questa mappatura con le proprie soluzioni. È questo l’obiettivo del confronto, oggetto di questo articolo, con i principali vendor che propongono oggi soluzioni storage. Il presupposto dal quale siamo partiti nella nostra indagine è che il paradigma dello storage ha subìto un profondo cambiamento negli ultimi anni: se in un passato (non molto lontano per la verità) si è ovviato alla crescita delle esigenze di archiviazione più che altro in termini quantitativi, con l’acquisto di nuove risorse storage, questa si è ormai dimostrata un’opzione non più perseguibile, non solo per evidenti problemi di budget, quanto per il drammatico aumento della complessità, e del costo, della governance dell’intera infrastruttura. Ciò dipende dal fatto che oggi il valore del dato non è né intrinseco al dato stesso né esclusivamente legato ai valori di frequenza e di velocità di accesso relativi al suo utilizzo: esso si manifesta invece sempre più spesso nel momento in cui viene messo in relazione con altri dati e informazioni, aprendo in questo modo prospettive di business fino a quel momento inesplorate e inimmaginabili. Per quanto riguarda lo storage, ciò significa che le performance oggi richieste all’infrastruttura non si possono ottenere semplicemente aggiungendo nuove risorse (per quanto lo storage gerarchico, che assegna le risorse in base ai valori di latenza e frequenza di accesso ai dati dinamicamente rilevati, sia un aiuto prezioso), ma attraverso un provisioning basato sulle caratteristiche che queste devono avere per essere allineate ai carichi di lavoro delle applicazioni servite.
Se questo presupposto è condivisibile per tutte le aziende indipendentemente dalla dimensione e dal settore di appartenenza, è altrettanto vero, proprio per il legame tra storage ed esigenze di business di cui s’è detto, che la domanda di storage è diversa in ogni realtà e che anche nella stessa azienda possono convivere necessità differenti. Se per certe applicazioni in real time o near-real time vi è la necessità di performance elevatissime in termini di Iops (operazioni di input/output per secondo), per altri carichi di lavoro una maggiore latenza di risposta dello storage può non rappresentare un problema, perché il real time non è prioritario rispetto alla necessità di accedere a dati complessi in ambienti distribuiti.
Per ognuna di queste problematiche c’è una risposta tecnologica, dal software defined storage alle infrastrutture convergenti, all’object storage, alle tecnologie flash. È evidente quindi che prima di abbracciare un approccio o un altro, è indispensabile capire bene quali sono le esigenze di business e quali le priorità.

Allineare lo storage ai carichi applicativi

Maurizio Rizzi, Responsabile Storage Enterprise, Ibm Italia

Come garantire dunque un provisioning dello storage allineato con i carichi delle applicazioni servite? “Il presupposto dell’insostenibilità economica dell’acquisto di sempre nuovo hardware è corretto – afferma Maurizio Rizzi, Responsabile Storage Enterprise, Ibm Italia – ma ci sono alcune alternative che consentono di aumentare la capacità di storage senza effettuare costosi acquisti di nuovo hardware. Fondamentali, da questo punto di vista, sono le tecnologie di virtualizzazione e quelle di compressione, che ampliano di fatto lo spazio fisico delle risorse esistenti, e alle quali si aggiungono poi quelle di deduplica. La risposta Ibm in questo ambito è l’integrazione di Ibm Real Time Compression all’interno di Ibm San Volume Controller, il software di virtualizzazione dello storage. E visto che il fattore tempo è ancora una variabile importante, i dati possono essere allocati nelle diverse risorse storage in base alla frequenza di accesso delle applicazioni utilizzando, per esempio, Ibm Easytier che consente di migrare automaticamente i dati tra i livelli storage, in base a modelli di analisi di utilizzo”. Sono soluzioni che possono essere proposte nella loro versione puramente software o integrate nei sistemi storage Ibm Storwize V7000. Se poi parliamo della necessità di calibrare l’utilizzo dello storage in applicazioni ad alta intensità di dati e che richiedono accesso ad alta velocità, quello che proponiamo è Ibm Elastic Storage“. Basato su un global file system, il sistema permette la gestione dello storage online, un accesso scalabile alle risorse e integra strumenti di data governance. Vanno infine ricordate le infrastrutture convergenti basate sui processori Power [mentre quelle x86 sono state cedute a Lenovo – ndr] come Ibm PureData for Analytics, appliance per analitiche complesse che comprendono sia la componente computazionale sia quella storage.

Roberto Patano, Senior Manager Systems Engineering, NetApp Italia

Storage unico, con un unico sistema operativo: è questo l’approccio che NetApp persegue ormai da 12 anni. “Il leit motiv della nostra offerta – spiega Roberto Patano, Senior Manager Systems Engineering, NetApp Italia – è la virtualizzazione dello storage, con un disaccoppiamento del software dall’hardware, dove il cuore è il sistema operativo, NetApp Data Ontap, unico per tutti i nostri sistemi. È il sistema operativo che consente di scalare performance e capacità sia per San sia per Nas fino a decine di petabyte senza che sia necessario riconfigurare le applicazioni in esecuzione”. Laddove siano richieste prestazioni estreme, come nell’high performance computing, l’ultima release abilita anche una scalabilità orizzontale, con risorse che lavorano in cluster.

Dario Regazzoni, PreSales Manager, Emc Italia

Come traspare da queste prime dichiarazioni, la risposta che è necessario dare alle richieste degli utenti consiste nel garantire determinati livelli di servizio: “Certo, e infatti – dice Dario Regazzoni, PreSales Manager, Emc Italia – la caratteristica che utilizziamo per presentare la nostra offerta di fascia alta, Emc Vmax3, è proprio il ‘Service Level Objective’ che significa dimenticarsi di dover amministrare o configurare lo storage: una volta definito il livello di servizio richiesto, il sistema è in grado di autoconfigurarsi in modo da rispondere alle esigenze di disponibilità e di performance che gli utenti dal punto di vista applicativo manifestano. Questo è possibile grazie al software Emc Vipr che centralizza e automatizza la gestione dello storage e la relativa erogazione su tipi diversi di storage (file, blocchi, object ecc.) anche per macchine non Emc”. L’approccio software defined storage è dunque alla base della proposta Emc: “Lo storage deve essere fornito come servizio. È basato su sistemi sicuramente complessi e tecnologicamente avanzati al proprio interno, ma deve essere semplice e vissuto come servizio dagli utenti. In pratica, grazie a Emc Vipr forniamo un catalogo di servizi storage”, aggiunge Fabio Choidini, V-Specialist Emc Emea.

Andrea Sappia, Sales Consultant Manager, Fujitsu Italia

“Un’unica famiglia di sistemi storage, Eternus Dx, che comprende tutti i dimensionamenti, governata da un unico software, Eternus Sf, che è in grado di configurare i sistemi, monitorarli, ma soprattutto gestire le priorità richieste dalle applicazioni”, così Andrea Sappia, Sales Consultant Manager, Fujitsu Italia, riassume la proposta dell’azienda, precisando che “ciò significa gestire l’automazione della qualità del servizio richiesta dalle applicazioni, e quindi dagli utenti. È il sistema che assegna dinamicamente le risorse in base alle esigenze degli applicativi e questo consente di avere un unico storage per diversi tipi di applicativi”.

Fabrizio Garrone, Solutions Manager, Dell

Fabrizio Garrone, Solutions Manager Dell, distingue tra due modalità di approccio, evolutivo o rivoluzionario, che le aziende possono perseguire: “Nel primo caso si tratta di far evolvere le infrastrutture attuali verso qualcosa di più efficiente attraverso la crescente virtualizzazione di una San tradizionale. Nel secondo possiamo seguire due direzioni. La prima è l’utilizzo di soluzioni ‘software only’ implementate su hardware industry standard in grado di fornire la massima flessibilità; in questo ambito Dell ha parternship con realtà leader di mercato per questa specifica area, come Microsoft Storage Spaces, Nexenta, RedHat Ceph, VMware VSan. La seconda strada è quella di soluzioni hyper-convergenti dove in un’unica appliance sono contenute sia la capacità computazionale sia quella storage, come Dell XC Series Web-Scale Converged Appliances powered by Nutanix e Dell Engineered Solution for VMware Evo:Rail. Non si tratta di fare una scelta di campo; potrà essere adottato anche un approccio misto, ma l’elemento fondamentale – sottolinea Garrone – è capire bene insieme al cliente quali sono le sue reali esigenze di business, quali sono le applicazioni che devono essere servite e quali le priorità da assegnare, anche perché l’approccio rivoluzionario, che ha indubbi vantaggi in termini di flessibilità e scalabilità, può essere disruptive dal punto di vista operativo, perché comporta una gestione delle operazioni differente rispetto all’approccio evolutivo”.

Yari Franzini, Country Manager, Hp Storage and Networking Italy

Affronta il tema delle infrastrutture convergenti come una risposta possibile ad alcune delle esigenze di storage anche Yari Franzini, Country Manager, Hp Storage and Networking Italy, ricordando che “l’approccio sarà sempre più quello di vedere da quale applicazione arriva il dato, in modo da garantire un livello di servizio adeguato dell’intera infrastruttura (server, storage e networking). La convergenza, con l’integrazione nativa di queste componenti, è dunque un tema importante e il valore aggiunto che noi possiamo offrire agli utenti con gli Hp ConvergedSystem è che le singole componenti sono tutte Hp e non frutto di alleanze. Passare a soluzioni convergenti è un passo importante per le aziende, con un impatto organizzativo non indifferente – sottolinea anche Franzini – quindi crediamo che poter contare su un prodotto solido, dove le componenti fondamentali derivano dallo stesso vendor possa rappresentare una garanzia maggiore”. Per quanto riguarda specificatamente lo storage, la soluzione che propone l’azienda è Hp 3Par StoreServ Storage: “Si tratta di un’unica architettura che integra tutte le evoluzioni delle tecnologie storage, dal flash all’object, gestita da un unico software”. Questo riferimento introduce il tema dello storage software defined nella declinazione Hp: “È uno dei perni della nostra strategia: circa otto anni fa abbiamo acquisito una software house che aveva sviluppato una soluzione di storage software defined e abbiamo portato questa funzionalità su tutto il nostro portafoglio; ma – prosegue Franzini – la possiamo fornire anche come soluzione a se stante, in modo che possa essere implementata da chi, invece di acquistare storage, intende utilizzare i server per questa attività. E mi preme sottolineare – prosegue il top manager – che questo software non ha solo caratteristiche di storage primario, ma integra anche il backup”.

La specializzazione per applicazioni enterprise

Walter Simonelli, Country General Manager, Hds Italia

“Premesso che la virtualizzazione è la via principale da percorrere per un approccio software defined e che Hitachi ha fatto della virtualizzazione l’elemento cardine di tutte le proprie soluzioni, la nostra risposta alle mutate esigenze di accesso ai dati, sempre più prestazionali, sempre più legate a logiche applicative, è rappresentata dalle soluzioni convergenti, dove il concetto di software defined è integrato nel disegno della macchina”, afferma Walter Simonelli, Country General Manager Hds Italia, che spiega: “La modalità di accesso ai dati è regolata dall’applicativo, quindi la nostra proposta è quella di creare specializzazioni applicative all’interno di uno stack infrastrutturale dove la parte computazionale e quella di storage convergono. L’unica garanzia per offrire le massime prestazioni ad applicazioni tipo Oracle Db, Sap Hana ecc. è un’infrastruttura convergente”. E il rischio di creare silos? “Non c’è, perché si tratta di specializzazioni all’interno di una macchina che non è dedicata esclusivamente a quella determinata applicazione. Infatti la nostra filosofia si basa sul concetto di ‘one platform for all data’”. La risposta di Hds alla domanda su come garantire un provisioning dello storage totalmente coerente con i carichi applicativi per realtà di classe enterprise è dunque Hitachi Unified Compute Platform (Ucp), sotto la quale può poi essere posto un ulteriore storage di classe enterprise come Hitachi Virtual Storage Platform G1000 (lanciato lo scorso aprile).

Vincenzo Matteo, Emea Disk Product Management Director, Oracle

Soluzioni storage ingegnerizzate per essere nativamente allineate con le applicazioni sono la risposta di Oracle alla domanda di allineamento tra storage e applicazioni servite. “La nostra strategia – spiega Vincenzo Matteo, Emea Disk Product Management Director, Oracle – è quella di realizzare sistemi che chiamiamo Application Engineered Storage, il cui nome stesso esprime il concetto di allineamento delle applicazioni con lo storage, ingegnerizzato per lavorare insieme. In queste appliance, storage e server sono un’estensione dell’applicazione e consentono di massimizzarne le performance complessive rendendo anche disponibili funzionalità aggiuntive”. Per esempio, chiarisce il manager Oracle: “Con Oracle FS1, che è l’Application Engineered Storage per le San, basta un solo click per effettuare il provisioning applicativo: è sufficiente scegliere tra le tante applicazioni che il sistema gestisce (ci sono oltre 70 profili applicativi disponibili e si possono creare profili specifici per applicazioni custom), indicare le priorità di business e il sistema sposta dinamicamente i dati sulle risorse più appropriate a seconda del variare dei carichi di lavoro”.

Lo storage per i Big Data
La gestione dei dati non strutturati rappresenta sicuramente oggi una delle principali sfide dello storage. Per affrontarla vengono spesso utilizzati sistemi storage di secondo livello (come Nas scalabili orizzontalmente), ma un’alternativa alla classica gestione per file system o per blocchi fisici è l’architettura storage object-based che gestisce “oggetti” complessi che comprendono dati, metadati e un identificatore univoco. In pratica, gli “oggetti” vengono memorizzati sulle risorse storage in blocchi che l’identificatore riconosce in maniera univoca associandoli alle applicazioni che ne richiedono l’accesso. Non si tratta, di per sé, di una novità (i primi progetti risalgono al 1996), ma il crescente interesse per un’architettura di questo tipo è determinato dal fatto che per le sue caratteristiche intrinseche (scalabilità più consistente, accessibilità più ampia, immutabilità dei dati più duratura, autoprotezione, validazione dell’integrità dei dati più elevata) può dare risposte più efficaci alla gestione di big data.
“Il crescente interesse verso lo storage per oggetti, che noi riscontriamo nei confronti nella nostra soluzione NetApp StorageGrid basata su questa architettura – spiega Patano – è determinato da due fattori: si sta comprendendo un po’ meglio cosa significa e ci sono ambiti nei quali essa diventa particolarmente interessante. La maggior facilità nel rintracciare un’informazione distribuita geograficamente ne fa, per esempio, un’architettura particolarmente adatta per la gestione di informazioni medicali (una radiografia effettuata a Milano, per esempio, può essere facilmente resa disponibile per un ospedale romano). Il grande vantaggio è poter gestire miliardi di oggetti facendo in modo che questi siano il più vicino possibile all’utilizzatore finale e facilmente accessibili. Ma non è certo la panacea per tutti i mali: se il problema è avere l’affidabilità del 99,999% o il disaster recovery sincrono allora non è la soluzione più adatta”.
“La nostra filosofia è quella dell’openness – dice Rizzi – quindi abbiamo abbracciato con convinzione OpenStack, all’interno del quale la componente OpenSwift si occupa di fornire servizi di object storage, e su questa ci stiamo appoggiando”. C’è una peculiarità Ibm rispetto ad altre soluzioni che sposano OpenSwift? “Il nostro differenziante è combinare OpenSwift con Ibm Elastic Storage, basato sulla tecnologia Ibm General Parallel File System che ha la capacità di gestire petabyte di dati, in modo distribuito, appoggiandosi a infrastrutture off the shelf”.
La soluzione Dell per questo ambito è Dell Object Storage Platform. Basata su software Caringo e server Dell PowerEdge indirizza la tematica object storage via software: “La criticità di un’architettura object storage – spiega Garrone – può essere rappresentata dal fatto che queste piattaforme, per essere realmente efficaci, richiedono un’integrazione nativa delle applicazioni, poiché la definizione di oggetto viene data dall’applicazione stessa. La risorsa storage in questo caso non è un semplice repository dove allocare i dati e l’applicazione deve essere ‘consapevole’ che è di tipo object, quindi sono necessarie Api fornite dal vendor dell’applicazione, oppure che questa permetta l’utilizzo della componente OpenSwift per essere integrata con le soluzioni storage che la prevedono, come le nostre”.
Torna alla logica del catalogo di servizi Regazzoni per spiegare l’approccio Emc all’object storage, “Non è altro che uno dei servizi ‘nuovi’ inseriti in questo catalogo. E questo è possibile perché il nostro storage è in grado di ‘parlare’ nativamente con le applicazioni sviluppate ad oggetti; non solo, è in grado di farlo anche con framework come Hadoop; chi lavora oggi con i big data richiede storage che possa essere agganciabile a un cluster Hadoop attraverso Hdfs (Hadoop Distributed File System) che il nostro sistema supporta”.
“Per Hp – interviene Franzini – anche l’approccio storage ad oggetti è riflesso nella strategia del portfolio convergente, che vede soluzioni ‘iperscalabili’ come StoreAll, che nasce per garantire resilienza, modularità e controllo dei costi nella gestione dei grandi volumi di dati provenienti dalle architetture big data, piuttosto che soluzioni unificate [con gestione per blocchi, file e oggetti – ndr] come 3Par StoreServ che grazie alle Rest Api presenti nativamente nel sistema operativo è immediatamente integrabile all’interno di uno stack cloud. Da sottolineare, inoltre, la proposizione ‘software defined everything’ di Hp che grazie a una serie di alleanze strategiche (tra le quali segnalo in particolare Scality) è in grado di offrire architetture a oggetti estremamente scalabili e integrate partendo dalle soluzioni Hp Proliant Server”.

Al centro sempre le esigenze dell’azienda
Si chiama Hitachi Content Platform la risposta Hds al tema object storage: “È una soluzione integrata – spiega Simonelli – che include storage ad oggetti, sincronizzazione e condivisione dei file, file gateway. È possibile suddividere una singola Content Platform in più ‘object store’ virtuali, configurabili in modo indipendente, per rispondere a specifiche esigenze di carico di lavoro. Hcp è molto diffusa in alcuni settori d’industria, in particolare nell’ultimo trimestre ha avuto un forte incremento nella gestione dati non strutturati in ambito finanziario”.
Di recentissimo rilascio (lo scorso ottobre) il sistema Eternus CD10000 è la soluzione Fujitsu dedicata allo sfruttamento dei big data e alla gestione di ambienti dell’ordine dei petabyte: “È un sistema – spiega Sappia – che si basa su Inktank Ceph Enterprise, il software storage open source di Red Hat, e consente di presentare una visione veramente unificata per blocchi, oggetti e file in un singolo cluster storage distribuito. L’architettura hyper-scale di questo nuovo sistema permette uno scale-out distribuito, quindi di aggiungere, scambiare e aggiornare i singoli nodi storage in maniera organica, senza alcuna interruzione operativa”.

Paolo Lossa, Regional Sales Director, Brocade Italia e Iberia

È invece tranchant la risposta di Matteo: “Parlare di object storage in sé non significa nulla, bisogna capire le reali esigenze dell’azienda. Il problema è quello dei tempi di risposta delle applicazioni? È il backup? O il video streaming? Prendiamo, per esempio, un’azienda di broadcasting: una realtà di questo tipo ha bisogno di un throughput di altissimo livello, l’Oracle Storage Zs4-4 Nas offre un throughput di più di 30 Gb/sec che è più di quanto qualsiasi architettura object storage possa oggi offrire. Se poi guardiamo al problema dei dati non strutturati in modo più ampio, la nostra risposta è la Oracle Big Data Appliance”.

Sullo storage per oggetti abbiamo infine chiesto un parere a Paolo Lossa, Regional Sales Director di Brocade Italia e Iberia, che mette l’accento su un aspetto importante: “Le architetture storage ad oggetti, per fornire funzionalità evolute in maniera efficiente e performante, devono basarsi su infrastrutture di rete altrettanto evolute e performanti sviluppate per gestire gli storage Ip di ultima generazione. Il classico Ethernet non basta più. Per esempio, Brocade Vcs è la tecnologia sviluppata affinché le reti Brocade possano integrarsi in maniera efficiente con gli storage Ip di ultima generazione e con gli strumenti di gestione degli storage ad oggetti”. La questione non è tanto l’ampiezza di banda, ma le capacità di switching e routing della rete interna al sistema (che sia su rame o fibra non fa molta differenza) che devono essere elevatissime in una piattaforma capace di trattare blocchi, file e oggetti.


€ per giga o € per iops?

Le economie di scala hanno portato a una riduzione del costo dei dischi a stato solido e delle memorie flash, ma i sistemi SSD e all-flash, l’ultima frontiera dello storage ad elevate prestazioni, rimangono risorse molto pregiate.
Il numero di operazioni per secondo che queste possono sostenere è però incomparabile con quello dei dischi tradizionali. Gli analisti suggeriscono quindi di cambiare la metrica con la quale si misura il costo dello storage e passare dal tradizionale euro per Gb a un più adeguato euro per Iops. Abbiamo quindi chiesto ai vendor se gli utenti sono consapevoli dell’opportunità di iniziare a misurare il valore economico dello storage in modo diverso. Premesso che la maggior parte degli intervistati ha evidenziato il fatto che se la tecnologia a stato solido viene utilizzata su storage tradizionali, in pratica solo per ampliare la cache, il beneficio è solo apparente e maschera le inefficienze a fronte di un costo maggiore che non si giustifica nel conto finale, sono stati pochi quelli che hanno riscontrato un cambiamento di atteggiamento degli utenti. In pratica le esigenze in termini di prestazioni sono sempre maggiori, ma gli utenti continuano a misurare lo storage prestazionale con gli stessi criteri di quello capacitivo.


Cloud storage: c’è ancora un problema di banda

Quali possono essere le criticità nell’adottare un modello di fruizione dello storage in cloud? Non ci riferiamo qui a chi ha scelto il cloud anche per la parte applicativa, ma abbiamo cercato di capire quali problematiche si trova ad affrontare un’azienda che decide di usare questo modello solo per la componente storage. Le risposte dei vendor sono state quasi unanimi: l’ampiezza di banda rappresenta ancora il vero problema in molte parti del nostro paese; minori le problematiche legate a questioni di sicurezza o privacy anche se alcuni hanno evidenziato che queste rappresentano ancora un freno per alcune realtà.
La strada del cloud storage è dunque preclusa per le aziende che non si trovano in condizioni di poter usufruire di una connettività adeguata? No: qualche soluzione c’è. Premesso che non è comunque pensabile appoggiarsi a uno storage cloud per applicazioni in real time, esso può essere utilizzato per servire applicazioni che non richiedono grandi ampiezze di banda o che possono sopportare una maggiore latenza. In ogni caso una buona pratica è sicuramente quella di utilizzare soluzioni di deduplicazione e compressione dati, che riducono la banda necessaria.
Ci sono poi alcune soluzioni particolari, come Emc che con TwinStrata, realtà acquisita la scorsa estate, consente alle aziende di allocare dati locali su cloud pubblici e privati, integrando di default la cifratura ed eseguendo in automatico le procedure di riproduzione e trasferimento verso un servizio cloud, sulla base delle necessità degli utenti. Oppure NetApp che ha appena lanciato Cloud Ontap, ossia la messa a disposizione del proprio sistema operativo presso hyperscaler come Amazon o Azure o Softlayer, consentendo così di “vedere” le risorse storage utilizzate presso questi provider come pool di risorse di un unico sistema. Il problema di banda rimane, ma la complessità di una gestione ibrida (cloud e on-site) dello storage si riduce drasticamente.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Round table
Keynote
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 4