È emerso con prepotenza lo scorso anno, quando il movimento Black Lives Matter ha rimesso al centro del dibattito pubblico statunitense le discriminazioni sociali legate alle tecnologie di riconoscimento facciale impiegate da tribunali e polizia, e da allora non si è affatto esaurito: ha scoperchiato altri bias algoritmici, simili per logica di discriminazione, legati ad altri campi come credit scoring e assunzioni lavorative; ha conosciuto una trasposizione cinematografica nel recente documentario Coded Bias (2020, Shalini Kantayya); e si è infine tradotto in una recentissima bozza ufficiale del “Regolamento sull’approccio europeo per l’intelligenza artificiale”, della Commissione europea, che riconoscendo la possibilità di danni materiali e non derivanti dall’IA ha proposto delle pratiche vietate tra cui il riconoscimento facciale in tempo reale.
Ma quanto è davvero pericolosa l’intelligenza artificiale? Esiste un modello algoritmico migliore su cui dovrebbe strutturarsi?
Potrà mai configurarsi in modo tale da incorporare appieno dei principi etici?
IA: uno strumento innanzitutto umano
Se, come appena visto, abbiamo appurato che le macchine possono sbagliare, ciò non significa che i computer sono in grado di commettere errori al pari degli esseri umani, ma che possono compierli proprio in quanto strumenti progettati da umani. Il fatto di appoggiarsi a un algoritmo non ci protegge dagli errori, anzi li può addirittura amplificare: piuttosto che pensare ai computer che fanno errori “come gli umani”, dovremmo ricordare che i computer sono strumenti usati dagli umani. Come tali, mettere un algoritmo in un computer non ci protegge da errori o conseguenze non volute. Inoltre, piuttosto che considerare i sistemi di IA come semplici strumenti, dobbiamo essere invece consapevoli che i computer ci danno una leva enorme, permettendoci di eseguire calcoli su quantità di dati che nessun umano potrebbe eguagliare. Sfortunatamente, questo significa che spesso usiamo i computer per prendere decisioni sulla base di dati che non comprendiamo appieno. La buona notizia è che stiamo costantemente migliorando la nostra capacità di comprenderli, non da ultimo sviluppando strumenti software per soddisfare questa esigenza.
Modelli a confronto: black box vs white box
La mancanza di trasparenza delle reti neurali ha condotto al problema della Black Box, ovvero la creazione di algoritmi così complessi che al netto della loro grande efficacia in termini di risultati, non sono tuttavia in grado di essere facilmente interpretabili nel loro processo decisionale.
I modelli black box sono utili in domini ristretti dove siamo assolutamente certi che tutto ciò che ci interessa è una metrica, come l’accuratezza, e siamo pronti a sacrificare la nostra capacità di capire il risultato in favore di un risultato spesso corretto. La mia esperienza è che in molti casi, questo compromesso non è ideale e che è molto meglio sacrificare qualche punto di accuratezza per un modello che possiamo interpretare. Inoltre, l’accuratezza e l’interpretabilità non vanno necessariamente in opposizione. Vedo spesso progetti di machine learning che iniziano con un focus miope sulla massimizzazione dell’accuratezza predittiva, per poi scoprire che il vero obiettivo è una combinazione di accuratezza, interpretabilità, velocità, semplicità e altro.
Se questi algoritmi hanno un ruolo decisivo in scelte cruciali, come quelle che avvengono in ambito medico e giudiziario, processi conoscitivi trasparenti e relazioni input-output lineari, ovvero le caratteristiche proprie di algoritmi “white box” come le regressioni lineari e gli alberi decisionali, possono costituire un’alternativa preferibile.
L’IA può rispecchiare valori etici?
Pur non essendoci un set di principi etici condiviso unanimemente dall’umanità esistono diversi punti di partenza: la dichiarazione universale dei diritti umani per cominciare; ma ancor di più il fatto che l’IA, in quanto strumento utilizzato dalle persone, dovrebbe rispecchiare nel suo sviluppo e costituzione gli stessi valori etici delle persone che andranno ad utilizzarla e saranno oggetto delle sue azioni.
Sono in corso lavori in numerosi organismi governativi e transazionali per stabilire quadri legali e normativi per allineare l’applicazione dell’IA con i principi etici comunemente accettati, per esempio il Comitato ad hoc del Consiglio d’Europa sull’intelligenza artificiale. Questo comitato è particolarmente impegnato a garantire che i quadri legali per l’uso dell’IA sostengano gli standard del Consiglio d’Europa sui diritti umani, la democrazia e lo stato di diritto.
Un insieme specifico di principi sono i cosiddetti principi “FAST Track” delineati dall’Istituto Turing del Regno Unito: i sistemi di IA dovrebbero essere equi, responsabili, sostenibili e trasparenti.
Naturalmente, il diavolo è nei dettagli: ci sono almeno decine di definizioni distinte, spesso incompatibili, di equità. Usare i sistemi di IA in modo responsabile significa valutare costantemente l’impatto di questi sistemi, ed essere vigili sugli effetti non voluti.