Ogni progetto che si rispetti prevede la partecipazione di un team, spesso distribuito, di persone, ciascuna delle quali produce documenti e informazioni, con la diretta conseguenza che legata a ogni progetto c’è la generazione di grandi quantità di “intelligenza”, ovvero di informazioni, comunicazioni e processi.
In altre parole di dati che vengono acquisiti, elaborati e condivisi continuamente: di fatto ogni data point contribuisce alla creazione di un mosaico sempre più articolato e definito di intelligenza su ciascun progetto.
E va detto che il mosaico non si esaurisce con il progetto, ma cresce con quelli successivi, con le persone che entrano a farvi parte, con i nuovi processi che vengono implementati.
Parliamo dunque di una curva di apprendimento in continua crescita.
La sfida: rendere disponibile e fruibile l’intelligenza che viene dai Big Data
Quale è la sfida?
La sfida è sfruttare questo universo di intelligenza in continua espansione e renderlo disponibile per accelerare i tempi di esecuzione dei progetti, per migliorarne la qualità e aumentare la redditività.
La risposta in questo caso viene dalla disponibilità di servizi di collaborazione sicuri, che dunque garantiscano che i dati non siano accessibili, alterati, danneggiati o cancellati da parte di soggetti non autorizzati, neutrali, che evitino – naturalmente là dove possibile – la presenza di super-user, centralizzati, così da essere il punto di connessione attivo e dinamico di tutta l’intelligenza del progetto in grado di interagire con altri sistemi e strumenti all’interno dell’organizzazione, illimitati, vale a dire senza restrizioni in merito al numero e alla dimensione di file e utenti, ricercabili, così che gli utenti abbiano la certezza di poter trovare l’informazione di cui hanno bisogno partendo da un’unica fonte.
In sintesi estrema, i set di dati che permeano le organizzazioni aziendali non sono di per sé l’intelligenza. Perché i big data rappresentino veramente un valore, è necessario che le organizzazioni aziendali abbraccino modelli collaborativi: è lì che i Big Data arrivano ad esprimere il loro maggior potenziale.
Collaboration + Big Data = Intelligence
Perché questo accada, è necessario far confluire nelle soluzioni di telepresence e collaboration una serie di funzionalità tipiche del mondo dei Big Data: data integration, analytics, visualizzazione, modellazione. È indispensabile che i team possano utilizzare tutte le informazioni disponibili ovunque queste si trovino, interagendo senza soluzione di continuità con tutto il patrimonio di conoscenze e di expertise presenti all’interno delle loro organizzazioni per dare vita a una logica e a un ambiente nuovo in termini di collaboration. Il tutto con una logica di flessibilità e di semplicità, indispensabili perché i dati siano accessibili anche a chi non ha competenze specifiche in questo ambito.
La visione di Cisco: continuous collaboration
In questo scenario, Cisco propone la sua visione di una collaborazione continua – si parla infatti di Continuous Collaboration -, unico approccio possibile quando si parla di percorsi e progetti di innovazione.
Continuous Collaboration per Cisco significa dare ai gruppi di lavoro gli strumenti che consentano di portare un insieme di eventi apparentemente sconnessi tra loro in uno stream continuativo e soprattutto robusto.
Gli strumenti che Cisco rende disponibili per rendere operativo questo workstream poggiano su tre asset chiave:
- L’infrastruttura data center, indispensabile per la gestione di tutti i data set
- Webex, vale a dire le soluzioni di conferencing
- Cisco Spark, la sua piattaforma di continuous collaboration. Con Spark, Cisco ha riunito in un’unica piattaforma tutti i tasselli che compongono il mosaico della collaboration, offrendo in tal modo un’unica esperienza integrata.