Man mano che i dati assumono una sempre più grande importanza per il business, e che la loro analisi grazie all’intelligenza artificiale arriva a fornire nuove possibilità alle aziende, la sicurezza e l’affidabilità del loro trattamento diventa una questione centrale. E’ importante prima di tutto che chi utilizza e gestisce questi dati per conto delle aziende sia un soggetto degno di fiducia, che utilizzi le informazioni in modo corretto e per fini ben precisi, senza distorsioni e in totale trasparenza. Se venisse a mancare questo vincolo di fiducia, proprio nel momento in cui si trattano spesso informazioni sensibili, tutto il sistema rischierebbe di venire minato alla base.
Proprio per evitare questo scenario e rendere visibili a tutti i propri principi quando si tratta di intelligenza artificiale i grandi player del settore hanno messo nero su bianco una serie di impegni a tutela dei dati dei loro clienti, assicurando il trattamento trasparente e responsabile delle informazioni che gestiscono per fornire i loro servizi.
Tra le prime aziende ad adottare un decalogo sul data trust c’è Ibm, che nei tre principi chiave del proprio impegno ha voluto sottolineare come lo scopo dell’intelligenza artificiale sia di dare uno strumento in più all’intelligenza umana, aggiungendo che i dati e i risultati della loro analisi appartengono ai chi li ha generati, e che le nuove tecnologie, compresi i sistemi di AI, devono essere trasparenti e poter essere spiegati.
“I dati sono una risorsa molto importante – aveva detto a marzo 2019 l’attuale Ceo di Ibm, Arvind Krishna, presentando Truata, il soggetto europeo per il data trust realizzato insieme a MasterCard – ma le aziende devono farsi carico della responsabilità di proteggerli”. Un concetto che era stato sottolineato anche dall’allora ceo di Big Blue, Ginni Rometty, che aveva avuto modo di sottolineare come “Ogni organizzazione che sviluppi o utilizzi l’intelligenza artificiale, che custodisca o processi informazioni, debba farlo in trasparenza e con responsabilità. Saranno giudicate non soltanto da come utilizzano i propri dati, ma anche da quanto riusciranno a essere affidabili nel proteggere i dati degli altri”.
Potenziare l’intelligenza umana
Il cardine del ragionamento è che non si tratta di rimpiazzare l’uomo e le sue capacità, ma soltanto di aiutarlo, estendendo il suo potenziale. I benefici di questa estensione delle capacità umane, inoltre, dovrebbero essere messi a disposizione di tutti, e non di pochi, e per riuscirci sarà fondamentale che i lavoratori siano formati e possano contare sulle competenze per collaborare con queste tecnologie che potranno trasformare in positivo il mondo del lavoro.
Proprio per raggiungere questo obiettivo Ibm puntualizza alcune questioni attorno alle quali si è creato molto dibattito negli ultimi mesi, a partire dalla tassazione dell’automazione, per evitare che possa penalizzare l’innovazione e gli investimenti sul lavoro del futuro. Allo stesso tempo sarà importante – secondo i principi stabiliti da Ibm – lavorare al fianco della politica e delle amministrazioni per incentivare un modello di formazione che si basi sulla domanda che viene dal mercato, e non esclusivamente su percorsi accademici stabiliti e cristallizzati. Questo perché preparare gli studenti ai lavori che saranno più richiesti in futuro sarà d’aiuto per assicurare che più persone abbiano l’opportunità di beneficiare della crescita economica abilitata dalla tecnologia. A questo obiettivo si può arrivare anche supportando gli investimenti per la formazione continua dei dipendenti e incoraggiando le iniziative di formazione individuali per gli avanzamenti di carriera.
Data trust: i dati appartengono a chi li produce
Quando si parla di intelligenza artificiale e di insight che derivano dall’analisi dei dati, è importante specificare che quei dati e quelle analisi sono e rimangono di proprietà dell’azienda che li ha generati. Questo è ciò che la policy di Ibm prevede. Le informazioni saranno inoltre protette secondo i più avanzati standard di sicurezza, quindi con criptaggio, sistemi di controllo degli accessi e specifici moduli per il consenso che consentono l’accesso e l’intervento soltanto a pochi soggetti qualificati.
Data trust: la privacy
Per instaurare un rapporto di fiducia forte con i clienti è fondamentale che la privacy dei dati dei clienti venga protetta con attenzione, adattandosi alle leggi locali e adottando i codici di condotta previsti Paese per Paese, anche facendo ricorso alle tecnologie più avanzate disponibili sul mercato e investendo in questo settore.
Data trust: la sicurezza
Proteggere i dati non vuol dire soltanto riservatezza, ma anche sicurezza rispetto ad attacchi informatici e data breach, che potrebbero costare particolarmente cari e su cui i criminali informatici stanno diventando sempre più aggressivi e preparati dal punto di vista tecnologico. La sfida così è quella di bilanciare nel modo migliore le esigenze della privacy, della sicurezza e della libertà. Senza ad esempio limitare le crittografie che consentono di proteggere i dati nella loro trasmissione e quando vengono custoditi, senza inserire nei sistemi backdoor che consentano eventuali intrusioni di agenzie governative e continuando a sviluppare tecnologie sempre più sicure per proteggere i sistemi dai data breach. Per raggiungere l’obiettivo potrebbe essere utile l’adozione di uno standard di criptaggio internazionale.
Proteggere i dati vuol dire, inoltre, applicare l’intelligenza artificiale anche ai sistemi e alle tecnologie di sicurezza, per rimanere sempre un passo davanti ai criminali informatici, sviluppando partnership pubblico-private e incoraggiando la condivisione di tutte le informazioni utili per contrastare gli attacchi. Lo scambio di informazioni dovrebbe avvenire a tutti i livelli e coinvolgere governi, aziende e mondo accademico e della ricerca, uniti dall’impegno sulla prevenzione degli attacchi informatici, mettendo sempre al primo piano privacy e sicurezza.
La trasparenza dell’intelligenza artificiale a beneficio del Data trust
Perché attorno ai sistemi basati sull’intelligenza artificiale possa svilupparsi e radicarsi un clima di fiducia, è importante che siano totalmente trasparenti, e questo compito spetta alle tech company. che dovranno essere chiare nello spiegare quali dati utilizzano e con quali fini, oltre a specificare quale sia il criterio con il quale hanno costruito i propri algoritmi. Questo perché se si vuole affidare all’intelligenza artificiale il capito di contribuire a prendere una decisione, deve essere chiaro quali siano i principi che ispireranno queste scelte.
Per questo si dovrà sapere quando e per quali scopi l’intelligenza artificiale viene applicata in determinati settori, quali siano le principali fonti dei dati che il sistema analizza, e quali metodi siano utilizzati per il “training” delle soluzioni. Perché se non tutti i bias possono essere evitati fin dall’inizio, sarà importante che sia noto che si sta provvedendo a migliorare il sistema man mano che emergono problemi, anche utilizzando nuovi data set.