L’utilizzo intensivo dell’intelligenza artificiale è motivo di importante dibattito: mentre per alcuni è diventata un’abitudine interagire con prompt o agenti vocali, altri invece provano ancora diffidenza verso queste innovazioni.
La causa di questo scetticismo è il velo che sembra avvolgere queste scatole nere, che da una semplice richiesta di poche parole sono in grado di fare scaturire immagini, progetti, listati di codice contestualizzati ed efficaci.
Occorre andare oltre alla semplice esperienza di fruitori passivi, ma contribuire alla comprensione e alla divulgazione dei metodi e dei processi che modellano le risposte che appaiono “magicamente” dai prompt.
Questo è ciò di cui si occupa la disciplina dell’Explainable AI: XAI è un insieme di processi e metodi che spiegano le logiche di apprendimento dei modelli per consentire agli utenti umani di comprendere e fidarsi dei risultati e dell’output creati dagli algoritmi di machine e deep learning.
Come funziona XAI
XAI non è un software di auditing o di monitoraggio, ma un insieme di convenzioni e regole rispettando le quali diventa possibile sviluppare applicazioni di intelligenza artificiale comprensibili anche a utenti non tecnici.
Il protocollo XAI chiede agli ingegneri che progettano il modello di implementare tecniche e metodi specifici per garantire che ogni decisione presa durante il processo di machine learning possa essere tracciata e spiegata.
Il framework XAI si basa su tre metodi fondamentali: precisione della previsione (Prediction accuracy), tracciabilità (Traceability), comprensione della decisione (Decision understanding).
Prediction accuracy
Il primo passo per conquistare la fiducia di una vasta platea è di fornire una prova oggettiva dell’affidabilità delle previsioni di un algoritmo di machine learning. Eseguendo simulazioni e confrontando l’output con i risultati nel set di dati di training, è possibile determinare l’accuratezza della previsione e fornire metriche sulla validità del modello. Le metodologie più diffuse per valutare una pipeline di training sono due: LIME e i valori di Shapley.
I valori di Shapley sono un approccio derivato dalla teoria dei giochi e modificato per essere adattato alla pratica del machine learning: sostituendo alcuni concetti statistici con processi tipici del ML, questa procedura offre la possibilità di stimare il contributo di ogni feature del set di dati alla formulazione di una specifica risposta. Il metodo dei valori di Shapley comporta un elevato consumo di risorse, poiché richiede la valutazione di tutte le combinazioni possibili tra le feature, provocando un aumento esponenziale del consumo di risorse in base al loro numero.
Per ovviare a questo limite tecnico, si può impiegare il metodo LIME (Local Interpretable Model-Agnostic Explanations). LIME cerca di spiegare i risultati del modello eseguendo un’approssimazione lineare del suo comportamento, costruita basandosi sul campionamento di alcuni risultati, valutati calcolandone i pesi in base alla loro prossimità. LIME è un metodo più semplice da un punto di vista matematico ed offre la comodità di essere già implementato in librerie Python di intuitivo utilizzo, che supportano un’ampia gamma di applicazioni di ML.
Traceability e decision understanding
Per tracciabilità si intende la capacità di tracciare e documentare i dati e le decisioni prese da una pipeline di intelligenza artificiale sia durante l’esecuzione di un task (richiesta da prompt o fetch tramite API), sia durante il training del modello.
Si tratta di un log che contiene un dettaglio di tutte le istruzioni eseguite, ovviamente entro i limiti concessi dal rispetto della proprietà intellettuale, da cui sia possibile ricostruire un diagramma di flusso che mostri i criteri con cui l’AI elabora le informazioni per derivare le sue risposte. Questo permette di capire come il modello prenda le sue decisioni e ne garantisce la trasparenza.
Come portare XAI nella propria azienda
Se avete recentemente implementato una soluzione di AI nella vostra infrastruttura IT, ad esempio un algoritmo di machine learning per i suggerimenti sul sito di e-commerce o un agent abbinato all’ERP, affiancare la metodologia XAI contribuirà ad aumentare la fiducia degli utenti e la frequenza dell’utilizzo dell’interazione con l’AI.
Permettere l’accesso a una reportistica capace di dare evidenza dei flussi decisionali alla base di un suggerimento o di un’informazione restituita, diventerà il biglietto da visita dell’impegno per un utilizzo dell’AI etico e trasparente. Anche raccogliere una statistica degli scostamenti delle risposte fornite dall’AI rispetto alle aspettative degli utenti o al dato del caso reale aiuterà ad entrare in un ciclo virtuoso di utilizzo e miglioramento continuo dell’AI aziendale.
Il coinvolgimento degli utenti rappresenta poi un plus importante: si può organizzare un evento aziendale o una riunione plenaria in cui vengono discussi i principi XAI implementati, invitando le persone a prendere confidenza con la loro metodologia.