L’argomento intelligenza artificiale ed etica è molto delicato. Va a toccare riflessioni che, in sintesi, riguardano proprio la capacità di distinguere i comportamenti corretti da quelli illeciti sulla base di un ideale modello comportamentale.
Intelligenza artificiale, è una definizione corretta?
Prima di tutto, è corretto parlare di “intelligenza” artificiale? “Negli strumenti oggi disponibili non c’è nulla che assomigli anche solo all’intelligenza di un topo o di un cane. Quello che c’è è una grandissima capacità di risolvere problemi con successo, perseguendo un fine, che spesso è stato stabilito da un essere umano. Ecco quindi che preferirei parlare di intelligenza aumentata, cioè che aumenta la nostra”. Lo dice Luciano Floridi, professore ordinario di filosofia ed etica dell’informazione all’Università di Oxford. (vedi AI ed etica: relazione delicata, ma cruciale. Intervista a Luciano Floridi)
Le conseguenze delle scelte dell’AI
Ma queste tecnologie consentono di affidare alle macchine delle scelte… E allora: quali potranno essere le conseguenze? Ma soprattutto, quali scelte possono essere affidate alle macchine?
“Vi sono nuove problematiche di etica applicata, relative ai temi della responsabilità individuale e collettiva, della dignità e dei diritti fondamentali delle persone, suscitate dagli attuali sviluppi dell’interazione uomo-macchina. Vi sono problemi ontologici relativi all’identità personale che riguardano gli interventi bionici volti a potenziare le capacità sensomotorie e cognitive. E vi sono problemi di epistemologia generale. Essi possono riguardare la nostra limitata capacità di prevedere il comportamento di robot e di agenti software dell’intelligenza artificiale”.
Così scrive, Guglielmo Tamburrini docente di Logica e Filosofia della Scienza dell’Università di Napoli Federico II. Professore insignito nel 2014 del Premio Internazionale Giulio Preti per studiosi che si sono distinti nell’aver coniugato scienza e filosofia.
Delega di processi e delega di decisioni
“Sul tema della delega delle decisioni – prosegue Floridi – forse vale la pena distinguere tra delega di processi e delega di decisioni. Banalizzando, possiamo delegare il lavaggio dei piatti alla lavastoviglie, ma se e quando farlo, e che cosa metterci dentro è una decisione che rimane a noi. Per quanto banale, questa logica è alla base di tutte le decisioni e i processi delegati alla tecnologia. Quello che c’è dietro (perché, quando, cosa, vale la pena…) resta, deve restare, in capo a noi. Il come (con quale efficacia, con quale efficienza…) è l’oggetto della delega. Questo è fondamentale: va bene la delega dei processi, seppur con le dovute verifiche. La delega delle decisioni, attenzione, va valutata con moltissima cautela. E tutto questo lo dico con un certo ottimismo nei confronti di queste tecnologie”.
L’integrità dell’identità personale
Un altro tema riguarda l’integrità dell’identità personale. Sono innegabili i passi avanti compiuti dalla bioingegneria. Ci sono sistemi che consentono di leggere e utilizzare i segnali neurali associati all’attività cognitiva per controllare un arto artificiale, con indubbio beneficio per chi ha subito un’amputazione.
“Queste ricerche bioniche – scrive ancora Tamburrini – si propongono soprattutto di ripristinare o di vicariare funzioni senso-motorie perdute. Aprono però la strada al potenziamento di apparati senso-motori e cognitivi che funzionano regolarmente. È opportuno chiedersi se sia nella nostra disponibilità modificare la nostra dotazione ‘naturale’ di capacità senso-motorie e cognitive. Una risposta positiva a tale quesito suscita a sua volta domande sulla persistenza dell’identità personale, prima e dopo l’intervento bionico. Una modifica delle funzioni mentali, sensoriali o motorie resa possibile dai sistemi bionici può indurre una modifica dell’identità personale?”.
Il sistema di valori
Concludiamo questa riflessione sul rapporto tra intelligenza artificiale ed etica riportando quanto disse qualche tempo fa Richard Hunter, Vp & Fellow Gartner (vedi CISO: i nuovi rischi etici e legali del business digitale).
“Si entra in una fase di rischio di tipo nuovo, etico e di conseguenza legale. Ogni macchina con capacità decisionale agisce con riferimento esplicito o implicito a un ‘sistema di valori’ (ossia gli algoritmi che le fanno agire) che universali non sono, anzi talora sono in conflitto. Insomma, i nuovi rischi del digital business non sono solo grandi, ma di nuovo genere”.
Intelligenza artificiale e giurisprudenza
I sistemi di intelligenza artificiale pongono nuovi e inaspettati problemi nel mondo del diritto e della società in generale. Ci troviamo davanti a nuove entità, le cui decisioni e risultati non sono pienamente l’effetto di azioni umane. Esse derivano da una serie di processi che, dopo l’istruzione della macchina, hanno autonoma capacità decisionale.
In alcuni casi essa non è giustificabile a posteriori, in quanto non è possibile comprendere come il sistema abbia assunto una decisione. Di chi è dunque la responsabilità giuridica delle loro azioni? Quali sono gli ambiti più critici? Come si stanno muovendo, in ambito regolatorio, i paesi attivi nello sviluppo di sistemi di AI?
Gli effetti del funzionamento di sistemi esperti
Massimiliano Nicotra ha approfondito gli aspetti giuridici nell’articolo Intelligenza artificiale: gli aspetti etici e giuridici, del quale riportiamo alcuni spunti.
“Il tema dell’intelligenza artificiale non è nuovo al mondo del diritto e dell’etica. Parallelamente al confronto che nasceva nel settore della ricerca scientifica emergevano anche studi giuridici che si ponevano l’obiettivo di esaminare il funzionamento dei“sistemi esperti”.
Dagli anni ’90 e fino a quelli più recenti, il tema della regolazione dei sistemi di intelligenza artificiale non è stato più oggetto di analisi significative.
Dal 2014 in poi, vari Paesi hanno cominciato ad occuparsi di questa tematica soprattutto interrogandosi sui presupposti per un utilizzo etico di queste tecnologie. Contemporaneamente hanno cercato di individuare un quadro giuridico nell’ambito dei vari sistemi, per la loro regolazione”.
La risoluzione del Parlamento Europeo
Nella Risoluzione del Parlamento del 16 febbraio 2017 recante raccomandazioni alla Commissione Europea concernenti norme di diritto civile sulla robotica, in cui sono presi in considerazione anche i sistemi di intelligenza artificiale, il Parlamento europeo aveva già indicato come temi di attenzione quelli relativi ai risvolti etici e sociali. E questo sottolineando che lo sviluppo della robotica e dell’intelligenza artificiale dovrebbe mirare a integrare le capacità umane e non a sostituirle.
La citata Risoluzione, pur essendo tesa a fornire delle linee guida in ambito civilistico, offre numerosi spunti che consentono di comprendere l’ampiezza delle problematiche giuridiche e sociali che l’intelligenza artificiale porta con sé.
Chi è responsabile delle azioni degli agenti intelligenti?
Dal punto di vista della responsabilità degli agenti intelligenti, la sfida sorge nel momento in cui consideriamo che il criterio tradizionale di imputabilità è collegato a una condotta da parte del soggetto agente (un’intelligenza artificiale pone in essere una sua autonoma condotta nel mondo fisico?).
I sistemi di intelligenza artificiale sembrano però richiamare i principi della responsabilità del produttore, che però devono adeguarsi al fatto che tali sistemi assumono capacità decisionale autonoma. Potrebbero però essere coinvolti anche soggetti diversi dal solo produttore, quali i programmatori o coloro che hanno realizzato gli algoritmi decisionali. Un ulteriore criterio di imputazione della responsabilità potrebbe essere anche rinvenuto nella culpa in vigilando. E in questo caso si guarda a chi utilizza il sistema, che può rendersi conto dell’adozione di decisioni errate da parte dello stesso. Il documento del Parlamento Europeo elenca una serie di punti di attenzione e anche suggerimenti per arrivare a una corretta soluzione normativa degli stessi”.