Guide

Explainable AI: cos’è, come funziona e come portarla in azienda



Indirizzo copiato

XAI è un set di processi e metodi che definiscono le logiche di apprendimento dei modelli e aiutano gli utenti a prendere fiducia nelle metodologie legate all’intelligenza artificiale 

Pubblicato il 12 mar 2025

Pablo Cerini

Giornalista



Explanable AI

L’utilizzo intensivo dell’intelligenza artificiale è motivo di importante dibattito: mentre per alcuni è diventata un’abitudine interagire con prompt o agenti vocali, altri invece provano ancora diffidenza verso queste innovazioni.

La causa di questo scetticismo è il velo che sembra avvolgere queste scatole nere, che da una semplice richiesta di poche parole sono in grado di fare scaturire immagini, progetti, listati di codice contestualizzati ed efficaci.

Occorre andare oltre alla semplice esperienza di fruitori passivi, ma contribuire alla comprensione e alla divulgazione dei metodi e dei processi che modellano le risposte che appaiono “magicamente” dai prompt. 
Questo è ciò di cui si occupa la disciplina dell’Explainable AI: XAI è un insieme di processi e metodi che spiegano le logiche di apprendimento dei modelli per consentire agli utenti umani di comprendere e fidarsi dei risultati e dell’output creati dagli algoritmi di machine e deep learning. 

Come funziona XAI

XAI non è un software di auditing o di monitoraggio, ma un insieme di convenzioni e regole rispettando le quali diventa possibile sviluppare applicazioni di intelligenza artificiale comprensibili anche a utenti non tecnici.
Il protocollo XAI chiede agli ingegneri che progettano il modello di implementare tecniche e metodi specifici per garantire che ogni decisione presa durante il processo di machine learning possa essere tracciata e spiegata.
Il framework XAI si basa su tre metodi fondamentali: precisione della previsione (Prediction accuracy), tracciabilità (Traceability), comprensione della decisione (Decision understanding).

Prediction accuracy

Il primo passo per conquistare la fiducia di una vasta platea è di fornire una prova oggettiva dell’affidabilità delle previsioni di un algoritmo di machine learning. Eseguendo simulazioni e confrontando l’output con i risultati nel set di dati di training, è possibile determinare l’accuratezza della previsione e fornire metriche sulla validità del modello. Le metodologie più diffuse per valutare una pipeline di training sono due: LIME e i valori di Shapley.
I valori di Shapley sono un approccio derivato dalla teoria dei giochi e modificato per essere adattato alla pratica del machine learning: sostituendo alcuni concetti statistici con processi tipici del ML, questa procedura offre la possibilità di stimare il contributo di ogni feature del set di dati alla formulazione di una specifica risposta. Il metodo dei valori di Shapley comporta un elevato consumo di risorse, poiché richiede la valutazione di tutte le combinazioni possibili tra le feature, provocando un aumento esponenziale del consumo di risorse in base al loro numero.
Per ovviare a questo limite tecnico, si può impiegare il metodo LIME (Local Interpretable Model-Agnostic Explanations). LIME cerca di spiegare i risultati del modello eseguendo un’approssimazione lineare del suo comportamento, costruita basandosi sul campionamento di alcuni risultati, valutati calcolandone i pesi in base alla loro prossimità. LIME è un metodo più semplice da un punto di vista matematico ed offre la comodità di essere già implementato in librerie Python di intuitivo utilizzo, che supportano un’ampia gamma di applicazioni di ML.

Traceability e decision understanding

Per tracciabilità si intende la capacità di tracciare e documentare i dati e le decisioni prese da una pipeline di intelligenza artificiale sia durante l’esecuzione di un task (richiesta da prompt o fetch tramite API), sia durante il training del modello.

Si tratta di un log che contiene un dettaglio di tutte le istruzioni eseguite, ovviamente entro i limiti concessi dal rispetto della proprietà intellettuale, da cui sia possibile ricostruire un diagramma di flusso che mostri i criteri con cui l’AI elabora le informazioni per derivare le sue risposte. Questo permette di capire come il modello prenda le sue decisioni e ne garantisce la trasparenza.

Come portare XAI nella propria azienda

Se avete recentemente implementato una soluzione di AI nella vostra infrastruttura IT, ad esempio un algoritmo di machine learning per i suggerimenti sul sito di e-commerce o un agent abbinato all’ERP, affiancare la metodologia XAI contribuirà ad aumentare la fiducia degli utenti e la frequenza dell’utilizzo dell’interazione con l’AI.

Permettere l’accesso a una reportistica capace di dare evidenza dei flussi decisionali alla base di un suggerimento o di un’informazione restituita, diventerà il biglietto da visita dell’impegno per un utilizzo dell’AI etico e trasparente. Anche raccogliere una statistica degli scostamenti delle risposte fornite dall’AI rispetto alle aspettative degli utenti o al dato del caso reale aiuterà ad entrare in un ciclo virtuoso di utilizzo e miglioramento continuo dell’AI aziendale.

Il coinvolgimento degli utenti rappresenta poi un plus importante: si può organizzare un evento aziendale o una riunione plenaria in cui vengono discussi i principi XAI implementati, invitando le persone a prendere confidenza con la loro metodologia.

Speciale Digital Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5