La rapida implementazione e diffusione di utilizzo dei sistemi di intelligenza artificiale stanno ponendo problemi etici e giuridici che devono essere affrontati e risolti per assicurarne un utilizzo sicuro ed affidabile ed evitare pericoli.
Tali questioni si presentano sicuramente nell’ambito di quella definita “intelligenza artificiale forte”, in cui è necessario comprendere e disciplinare i limiti che devono essere posti al sistema e l’allocazione delle responsabilità giuridiche ed economiche del suo utilizzo, ma devono essere affrontate anche per la cosiddetta ”intelligenza artificiale debole”, utilizzata in vari settori ed ambiti in modo verticale per agevolare determinate attività di analisi dei dati e predizione di risultati.
Per renderci conto di questi problemi valgano alcuni esempi. Già si è parlato dell’esperimento del MIT denominato The Moral Machine Experiment (vedi al capitolo Automotive dell’articolo Cos’è l’intelligenza artificiale e quali sono le applicazioni attuali e future), circa le decisioni che deve affrontare un sistema di guida autonoma dei veicoli. Si pensi anche ai sistemi di riconoscimento vocale destinati a interagire con gli esseri umani, come il sistema presentato da Google nel 2018, che provvedeva autonomamente a prenotare, per esempio, un appuntamento da un parrucchiere. È corretto che un sistema del genere nasconda la propria identità, ossia non faccia comprendere all’essere umano che sta interagendo con una macchina? Anche i sistemi di riconoscimento facciale, utilizzati anche sugli smartphone come strumenti di autenticazione, si prestano ad applicazioni di sorveglianza di massa e controllo della collettività. La diagnostica ad immagini, in ambito sanitario, potrebbe avere conseguenze rilevanti sul futuro delle persone; di chi è la responsabilità se un sistema del genere commette errori?
È bene, infatti, sottolineare che i sistemi di intelligenza artificiale pongono dei nuovi e inaspettati problemi nel mondo del diritto e della società in generale. Ci troviamo davanti a nuove entità, le cui decisioni e risultati non sono pienamente l’effetto di azioni umane, ma derivano da una serie di processi che, dopo l’istruzione della macchina, hanno autonoma capacità decisionale e in alcuni casi non giustificabili a posteriori, in quanto non è possibile comprendere come il sistema sia giunto ad assumere una certa decisione.
Intelligenza artificiale e diritto: un confronto che si è sviluppato nel tempo
Il tema dell’intelligenza artificiale non è nuovo al mondo del diritto e dell’etica.
Parallelamente al confronto che nasceva nel settore della ricerca scientifica emergevano anche studi giuridici che si ponevano l’obiettivo di esaminare il funzionamento e le implicazioni di quelli che allora erano denominati “sistemi esperti”. Dagli anni ’90 e fino a quelli più recenti, il tema della regolazione dei sistemi di intelligenza artificiale non è stato più oggetto di analisi significative, fino a quando dal 2014 in poi, vari Paesi hanno cominciato ad occuparsi di questa tematica soprattutto interrogandosi sui presupposti per un utilizzo etico di queste tecnologie, contemporaneamente cercando anche di individuare un quadro giuridico nell’ambito dei vari sistemi, per la loro regolazione.
È necessaria a questo punto una piccola digressione sui rapporti tra etica e diritto. La distinzione di questi due ambiti di regole è stata ormai ampiamente accettata come formalizzata compiutamente da Hans Kelsen [giurista e filosofo austriaco, tra i più importanti teorici del diritto del Novecento ndr]: da una parte, infatti, vi sono le regole etiche che attengono alla morale e che hanno una valenza universale; il rispetto di tali regole non è assicurato tramite la coercizione dello Stato, ma mediante altri strumenti di persuasione che possono portare all’esclusione di un individuo da un gruppo sociale.
Alcune volte, ma non sempre, le regole etiche vengono formalizzate all’interno di un ordinamento giuridico (come ad esempio nella Carta Europea dei Diritti dell’Uomo), e in questo caso si spogliano, per così dire, della loro valenza solamente etica ma divengono norme giuridiche, il cui rispetto è assicurato tramite l’apparato statale e sovrastatale.
È bene evidenziare che l’ordinamento giuridico, a sua volta, non rispecchia pienamente la morale in un determinato contesto storico o Paese di riferimento. Le leggi della Germania nazista erano sicuramente contrarie all’etica, ma in ogni caso esse vincolavano tutti i consociati soggetti a quell’ordinamento giuridico, in quanto emanate secondo la disciplina di promulgazione delle fonti di diritto vigente e in quanto tali pienamente valide e vincolanti.
I diversi approcci all’AI dal punto di vista etico
Come oramai risulta chiaro anche dalle varie notizie che si susseguono nella “corsa all’AI”, gli approcci a tali temi sono alquanto diversi, soprattutto tra i Paesi di matrice occidentale e quelli asiatici.
Questi ultimi, infatti, soprattutto la Cina, che ha più volte dichiarato di voler assumere una posizione primaria nel mondo con riguardo ai sistemi di intelligenza artificiale, sta implementando sistemi idonei anche a controllare e monitorare la popolazione, e vuole sfruttare tutti i possibili vantaggi forniti dall’AI in tali ambiti, con ingenti investimenti in termini economici.
Anche in Giappone i sistemi di intelligenza artificiale si stanno sempre più diffondendo, e oggi vengono già utilizzati robot per l’assistenza agli anziani o come receptionist degli hotel (anche se, a dir la verità, con risultati non sempre soddisfacenti). Tutto ciò senza alcuna previa riflessione, a livello governativo o di sistema, sugli impatti dell’adozione di tali tecnologie sulla società in cui sono calati.
Gli Stati Uniti, d’altra parte si sono mossi con l’approccio pragmatico che li caratterizza. Prima sono stati effettuati investimenti, anche ingenti, soprattutto nel settore privato e militare, in tali tecnologie, e solo recentemente cominciano a intravedersi proposte regolatorie (che, è bene sottolinearlo, non si preoccupano di inquadrare i sistemi di intelligenza artificiale nell’ambito di un sistema etico di loro utilizzo, ma piuttosto ne propongono una specifica disciplina).
Così ad ottobre del 2018 la Public Voice Coalition, che nasce in seno al centro di ricerca di pubblico interesse EPIC con sede a Washington, ha pubblicato le Universal Guidelines for Artificial Intelligence con l’obiettivo di fissare alcuni principi e requisiti che dovrebbero essere imposti nella progettazione e utilizzo dei sistemi di intelligenza artificiale. Tra questi vi è la proposta di imporre un obbligo di “Identification” affinché sia sempre noto al pubblico il responsabile del sistema di intelligenza artificiale, quello di “Prohibition on Unitary Scoring” che dovrebbe vietare l’istituzione di un sistema generale di scoring sui cittadini nonché l’obbligo di “Termination” per imporre a chi utilizza un sistema di AI l’arresto dello stesso quando sia divenuto impossibile il controllo umano.
Anche alcune delle aziende statunitensi più importanti dell’informatica mondiale stanno cominciando a riflettere in maniera più approfondita sui sistemi AI. Così l’avvocato e Presidente di Microsoft, Brad Smith, ha espressamente dichiarato che è giunto il momento di introdurre una disciplina per i sistemi di riconoscimento facciale proprio per i pericoli che il loro utilizzo può comportare in termini di sorveglianza massiva, di privacy delle persone, di discriminazione e pregiudizi.
Google a sua volta ha annunciato a dicembre 2018 di non voler ancora offrire delle API per il riconoscimento facciale generale proprio per i pericoli che sistemi del genere rappresentano per la libertà degli individui, mentre in queste ultime settimane di gennaio 2019 si è alzato il livello di attenzione, in forza di un aggiornamento di una ricerca da parte del MIT, relativi ai bias dei sistemi di riconoscimento facciale più diffusi, che tendono a discriminare le persone sulla base del colore della pelle.
L’Unione Europea, dal canto suo ha istituito un apposito Gruppo di Alto livello di Esperti con il compito di definire delle Linee Guida per la realizzazione di sistemi di intelligenza artificiale dividendo il lavoro in due fasi: la prima relativa alla redazione di Linee Guida sui profili etici dell’intelligenza artificiale; la seconda per la produzione di raccomandazioni inerenti alla politica legislativa e investimenti.
Il 18 dicembre 2018 il Gruppo di lavoro ha posto in consultazione la bozza delle “Ethic Guidelines fo Trustworthy AI” che saranno poi adottate entro marzo 2019.
L’obiettivo di queste linee guida è quello di fornire delle regole a livello etico per assicurare che un sistema di intelligenza artificiale sia “affidabile”, intendendosi con il concetto di affidabilità il rispetto di una visione umano-centrica e dei diritti fondamentali dell’uomo.
In più parti delle linee guida si richiamano i diritti fondamentali dell’uomo, che d’altra parte in Unione Europea sono contenuti nella Carta Europea dei Diritti dell’Uomo considerata dai Trattati fonte del diritto.
Le linee guida fissano innanzitutto alcuni principi e valori generali affinché un sistema di intelligenza artificiale possa essere considerato affidabile, per attuare i quali è necessario seguire i requisiti specifici e concreti dettati nella seconda parte del documento. Si tratta, in alcuni casi, di vere e proprie specifiche di implementazione affinché un sistema di intelligenza artificiale sia “etico by design”; infatti tra i metodi elencati vi è quello della “Ethics & Rule of law by design”, ossia l’esigenza che il sistema risponda già, in sede di progettazione, a quei valori dettati nella prima parte delle Linee Guida. I metodi individuati dal Gruppo di Lavoro sono sia tecnici (tra cui la progettazione delle architetture del sistema, la tracciabilità, le fasi di test e validazione, la citata “Ethics & Rule of law by design” e la possibilità di ottenere una spiegazione delle decisioni adottate) sia organizzativi, che comprendono la regolazione, la standardizzazione, la governance dell’accountability, i codici di condotta, la formazione ed il dialogo tra le parti, compresa la diversità delle persone che fanno parte dei team di sviluppo. La terza parte delle Linee Guida termina con una vera e propria check list di assessment per coloro che vogliono realizzare un sistema di intelligenza artificiale affidabile.
La bozza delle Linee Guida, come accennato, sarà in consultazione per un breve periodo e definitivamente pubblicata a marzo 2019. Trattandosi, appunto, di Linee Guida etiche esse non possono avere efficacia vincolante per i Paesi dell’Unione Europea. Sicuramente però il documento assumerà fondamentale importanza nel momento in cui si dovranno adottare delle scelte di politica legislativa all’interno dell’Unione sul tema dell’intelligenza artificiale, come ad esempio le responsabilità ricollegate al suo uso ed i diritti dei cittadini, anche considerando il richiamo espresso ai diritti fondamentali dell’uomo.
Chi è responsabile delle azioni di un sistema di AI?
L’Unione Europea è stata comunque la prima a porsi il problema dell’intelligenza artificiale non solo dal punto di vista etico (ottica già seguita dal Regno Unito nel 2016), ma anche regolatorio soprattutto dal punto di vista dei meccanismi di imputazione delle responsabilità in ambito civile.
Nella Risoluzione del Parlamento del 16 febbraio 2017 recante raccomandazioni alla Commissione Europea concernenti norme di diritto civile sulla robotica, in cui sono presi in considerazione anche i sistemi di intelligenza artificiale, il Parlamento europeo aveva già indicato come temi di attenzione quelli relativi ai risvolti etici e sociali, sottolineando che lo sviluppo della robotica e dell’intelligenza artificiale dovrebbe mirare a integrare le capacità umane e non a sostituirle.
La citata Risoluzione, pur essendo tesa a fornire delle linee guida in ambito civilistico, offre numerosi spunti che consentono di comprendere l’ampiezza delle problematiche giuridiche e sociali che l’intelligenza artificiale porta con sé.
Dal punto di vista della responsabilità degli agenti intelligenti, la sfida sorge nel momento in cui consideriamo che il criterio tradizionale di imputabilità è collegato a una condotta da parte del soggetto agente (un’intelligenza artificiale pone in essere una sua autonoma condotta nel mondo fisico?). I sistemi di intelligenza artificiale sembrano però richiamare i principi della responsabilità del produttore, che però devono adeguarsi al fatto che tali sistemi assumono capacità decisionale autonoma, e potrebbero coinvolgere anche soggetti diversi dal solo produttore, quali i programmatori o coloro che hanno realizzato gli algoritmi decisionali. Un ulteriore criterio di imputazione della responsabilità potrebbe essere anche rinvenuto nella culpa in vigilando di colui che utilizza il sistema, nel momento in cui può rendersi conto dell’adozione di decisioni errate da parte dello stesso.
Il documento del Parlamento Europeo elenca una serie di punti di attenzione e anche suggerimenti per arrivare a una corretta soluzione normativa degli stessi (suggerendo anche l’istituzione di assicurazioni obbligatorie per l’utilizzo degli agenti autonomi) e ipotizza anche il riconoscimento normativo delle “persone elettroniche” quali soggetti autonomamente capaci di essere imputabili di situazioni giuridiche attive e passive.
Altro tema che viene affrontato è quello dell’importanza dei dati pubblici. Rendere disponibili tali dati ai soggetti privati che implementano soluzioni di intelligenza artificiale incentiverebbe le loro attività, dato che i sistemi di machine learning devono processare ingenti quantitativi di informazioni per poter essere opportunamente istruiti. Però rendere accessibili pubblicamente tali dati, senza opportune misure e cautele, potrebbe avere delle conseguenze negative sulle persone. Si pensi ai dati sanitari, che potrebbero essere utilizzati per sviluppare sistemi di intelligenza artificiale in campo medico per la prevenzione delle malattie (già oggi realizzati), ma al contempo utilizzati per altre finalità, ad esempio per negare l’accesso a posti di lavoro o per negare coperture assicurative. Sono questi i punti che richiedono particolari cautele nel regolare la disciplina.
Oltre alle tematiche sopra affrontate, e per rendersi conto di quante problematiche la regolazione dei sistemi di intelligenza artificiale pone, cerchiamo brevemente di fare una carrellata delle stesse.
Intelligenza artificiale e concorrenza
Come già detto, i sistemi AI si “nutrono” di dati. Per poter addestrare adeguatamente un’intelligenza artificiale sono necessari milioni di dati, che essa deve analizzare. Ciò comporta che oggi i grandi player internazionali che dispongono di tali quantitativi di dati sono in realtà in posizione di vantaggio rispetto a chi voglia entrare in questi mercati, potendo costituire la disponibilità dei dati una barriera all’ingresso di nuovi concorrenti. Si pongono, quindi, problematiche sotto il profilo della concorrenza, che deve essere leale e che vuole evitare l’abuso delle posizioni dominanti di alcuni player su determinati mercati.
Intelligenza artificiale e Diritto d’autore
Un altro tema è quello dell’attribuzione dei diritti d’autore, o comunque diritti di privativa industriale, a un sistema di intelligenza artificiale. Già è stata effettuata la prima vendita di opera d’arte creata interamente da una AI, ma si pensi anche, più semplicemente, ai programmi per elaboratore, altro settore in cui si sta cercando di sviluppare AI in grado di crearli autonomamente.
In questi casi quasi tutti i sistemi giuridici del mondo riconoscono al creatore dell’opera originale dei diritti di sfruttamento economico sull’opera stessa. A chi spetteranno in caso di creazione dell’AI? Al creatore dell’algoritmo, a colui che ha istruito il sistema, a colui che lo utilizza o ne è proprietario?
Intelligenza artificiale e Veicoli a guida autonoma
Già è stato accennato in precedenza il problema del test etico dei veicoli a guida a autonoma condotto dal MIT. In termini di responsabilità giuridica, e quindi a prescindere da dette considerazioni etiche, per un incidente dove è coinvolto un veicolo a guida autonoma bisognerà però predisporre un’apposita regolamentazione, molto probabilmente istituendo assicurazioni specifiche, che possa tenere in debita considerazione il fatto che alla guida di detto veicolo non vi è un essere umano.
Intelligenza artificiale e Intelligent Weapons
L’utilizzo dell’AI per scopi militari è altro argomento molto delicato. Oggi i sistemi di intelligenza artificiale vengono utilizzati al fine di supportare l’essere umano nella guida di aerei, droni o altri sistemi di attacco, così come per i sistemi di puntamento. Non è escluso che in un futuro tali sistemi siano guidati direttamente da AI, che dovranno in alcuni casi compiere delle scelte di vita e di morte su esseri umani. Ed anche una proliferazione di sistemi di intelligenza artificiale quali strumenti di guerra può comportare ulteriori problematiche: se, infatti, in queste guerre potrebbero non perdere più la vita esseri umani, essendo combattute solo da sistemi artificiali, ciò potrebbe rendere la stessa guerra più “accettabile” come strumento di risoluzione delle controversie tra Stati, con effetti dirompenti e impatti sociali per gli uomini non prevedibili. La guerra, come la conosciamo oggi, inoltre potrebbe spostarsi su altri fronti, in particolare sulle reti e sistemi informativi (il cosiddetto quinto dominio di guerra, dopo aria, terra, mare e spazio) in cui già oggi vengono utilizzati sistemi di intelligenza artificiale a scopo difensivo per il riconoscimento di pattern anomali ma che, con l’aumento della disponibilità di tali sistemi, potrebbe portare anche a utilizzi di tipo offensivo.
Intelligenza artificiale e Mercati finanziari
Già oggi i grandi (ma anche non troppo) hedge fund utilizzano sistemi di intelligenza artificiale allo scopo di operare sui mercati finanziari. Si sono verificati episodi per cui, per errori interpretativi dei segnali, i mercati hanno subìto in frazioni di tempo ridotte degli sbalzi di quotazione tali da mettere a terra interi Paesi (o mercati). Si tratta dei cosiddetti Flash crack, il più delle volte attribuiti agli algoritmi che gestiscono le transazioni, e che se evoluti in sistemi intelligenti, potrebbero effettivamente decidere le sorti economiche di un Paese.
Riconoscimento vocale, facciale, grafometrico
In genere tutti i sistemi di intelligenza artificiale che possono riconoscere caratteristiche fisiche degli esseri umani sono a rischio di essere utilizzati per il monitoraggio degli stessi. In più, i sistemi che possono “dialogare” con gli uomini sono anche a rischio di essere considerati decettivi, nel senso che essi sono idonei a indurre in errore l’essere umano, qualora non propriamente identificati, circa la reale controparte di un dialogo (suscitò qualche polemica in tal senso l’assistente presentato da Google che, nel dialogare con l’esercente di un negozio di parrucchiere per prenotare un appuntamento, replicava fedelmente le pause, interlocuzioni ed espressioni che sono emesse in un dialogo tra umani).
Intelligenza artificiale e Mercato del lavoro
La Foxconn, società cinese dove vengono prodotti gli smartphone Apple, ha già dichiarato di voler arrivare a un milione di dipendenti entro il 2020 (oggi ne impiega 500.000). La particolarità è che di questo milione in realtà 500.000 saranno robot a uso industriale, con le ovvie conseguenze in termini occupazionali. Il tema dell’impatto sul mercato del lavoro dei robot e dei sistemi di intelligenza artificiale è amplissimo, e non è sicuramente possibile pensare di affrontarlo in poche righe. Alcuni Stati e istituzioni, tra cui l’Unione Europea, stanno pensando di introdurre delle specifiche imposte aggiuntive per coloro che vorranno utilizzare tali soluzioni in luogo di lavoratori umani, cercando così di recuperare il gettito derivante dalle mancate assunzioni. Ciò però non eliminerà il problema di come collocare le persone che si vedranno sostituite da tali tipologie di macchine e sistemi, dovendo evidentemente cominciare a pensare a dei “paracaduti sociali” per coloro che si troveranno in tali situazioni.
Intelligenza artificiale e Sanità
Anche il settore della Sanità sta cominciando a subire l’avvento dell’intelligenza artificiale. Soprattutto nel settore della radiologia, l’accuratezza con cui l’AI riesce a riconoscere dalle immagini l’insorgere di una malattia sta oramai eguagliando, se non superando, quella degli esseri umani. Ma anche in tali ipotesi è necessario porsi delle domande in merito al criterio di imputazione di responsabilità nel caso di errori, a maggior ragione ove si consideri che in questo settore le scelte possono incidere direttamente sulla vita delle persone.