Non esiste un’univoca definizione di intelligenza artificiale, questo concetto molto attuale e dibattuto riguarda molteplici discipline. Volendo comprenderle tutte, pur rischiando di essere banali, è possibile definire intelligenza artificiale la materia che studia la progettazione, lo sviluppo e la realizzazione di sistemi capaci di simulare comportamenti, ragionamenti e abilità umani. In tale definizione risulta evidente che si tratta di un argomento molto delicato, che va a toccare l’etica che, in estrema sintesi, è propria la capacità di distinguere i comportamenti corretti, leciti, giusti da quelli considerati scorretti, illeciti, ingiusti sulla base di un ideale modello comportamentale. Nel caso le scelte vengano affidate alle macchine quali potranno essere le conseguenze?
I fatti di cronaca ripropongono periodicamente la riflessione sul problematico rapporto tra robot e uomo, tra le azioni dettate dalla volontà umana e quelle determinate dall’intelligenza artificiale.
È storia di questi giorni il terribile incidente causato da un’auto a guida autonoma che, non avendo “visto” un pedone, lo ha travolto e ucciso.
E non è stato il primo accadimento di questo tipo, ricordiamo infatti che sono due al momento gli incidenti gravi di cui si è resa protagonista un’automobile Tesla in marcia con il pilota automatico.
Si tratta di episodi importanti che si stanno analizzando da tutti i punti di vista tecnologici, ma che, allo stesso tempo, si devono ricondurre al disgraziato connubio tra un’eccessiva fiducia nelle macchine e una certa dose di distrazione da parte dei conducenti che comunque erano presenti in occasione degli incidenti più gravi.
La sfida principale è dunque quella di trovare un equilibrio tra tecnologia e fattore umano.
Etica e robotica, opinioni a confronto
La riflessione sugli aspetti etici è sempre andata di pari passo con il pensiero filosofico e scientifico/tecnologico.
“Vi sono nuove problematiche di etica applicata, relative ai temi della responsabilità individuale e collettiva, della dignità e dei diritti fondamentali delle persone, suscitate dagli attuali sviluppi dell’interazione uomo-macchina. Vi sono problemi ontologici relativi all’identità personale che riguardano gli interventi bionici volti a recuperare o potenziare le capacità sensomotorie e cognitive degli esseri umani. E vi sono problemi di epistemologia generale, che riguardano la nostra limitata capacità di prevedere il comportamento di robot e di agenti software dell’intelligenza artificiale”, scrive Guglielmo Tamburrini docente di Logica e Filosofia della Scienza dell’Università di Napoli Federico II, insignito nel 2014 del Premio Internazionale Giulio Preti per studiosi che si sono distinti nell’aver coniugato scienza e filosofia.
Il primo quesito sul quale interrogarsi è dunque quello della responsabilità. L’esempio più facile è quello dei droni per uso militare. Nel 2013, l’arcivescovo Silvano M. Tomasi, rappresentante permanente della Santa Sede presso le Nazioni Unite, intervenendo all’incontro annuale degli Stati parte della “Convenzione sull’interdizione e limitazione dell’uso di alcune armi convenzionali che possono produrre effetti traumatici eccessivi o indiscriminati” chiedeva: “Quando un drone armato viene pilotato a migliaia di miglia di distanza, chi ha la responsabilità delle violazioni umanitarie compiute attraverso il suo utilizzo? Quando informazioni vitali relative all’uso di droni armati vengono sottratte alla verifica, come si può appurare la conformità con il diritto internazionale, il diritto umanitario internazionale e gli standard etici?”.
Ma la questione non riguarda solo l’ambito militare: “I sofisticati sistemi di high frequency trading guadagnano in Borsa evolvendosi sulle conoscenze acquisite e con tempi di reazione dell’ordine di decimillesimi di secondo – dice a ZeroUno David Orban, imprenditore e investitore di start-up tecnologiche, autore di numerose pubblicazioni sul tema dell’Intelligenza Artificiale, membro della Facoltà e Advisor della Singularity University – e si muovono sulla base di istinti predatori paragonabili a quelli degli squali più feroci della preistoria, senza alcuna briglia. Possono mettere in crisi la stabilità finanziaria di interi paesi. È ovvio che sono necessarie delle regole, che questi sistemi devono essere ‘consci’ degli eventuali impatti devastanti che possono produrre”. Si tratta di sistemi che si servono di sofisticati software con i quali vengono realizzate negoziazioni ad alta frequenza, guidate da algoritmi matematici; scopo di questo approccio è lucrare su margini estremamente esigui che, per trasformarsi in guadagni significativi, devono operare su grandi quantità. Si stima che in alcune Borse rappresentino oltre il 70% delle transazioni e che il loro uso massiccio sia all’origine dell’estrema volatilità dei mercati; inoltre, possono essere volutamente utilizzati per destabilizzare i mercati.
Un altro tema riguarda la capacità di compiere scelte in situazioni estreme dove la componente “etica” rappresenta un elemento determinante della scelta. Il Bristol Robotics Laboratory ha condotto tempo fa un esperimento nel quale un robot doveva impedire che altri automi (che rappresentavano esseri umani) cadessero in un buco. Nello scenario più semplice, ossia quello in cui c’era un solo “essere umano”, il robot “salvatore” è intervenuto rapidamente per cambiare la traiettoria del primo. Nell’altro scenario è stato introdotto un secondo “essere umano” e il robot doveva salvarli entrambi: in alcuni casi ha deciso di salvarne uno, lasciando “morire” l’altro, in altri è riuscito a impedire che entrambi cadessero vittime della trappola, ma in ben 14 casi su 33 ha sprecato talmente tanto tempo nel prendere una decisione che tutti e due gli “esseri umani” sono finiti nel buco. Alan Winfield, responsabile del team che ha condotto l’esperimento, ha dichiarato: “Quando riusciremo a far acquisire alle macchine la capacità, propria degli umani, di prevedere le conseguenze di alcune azioni, allora l’intelligenza artificiale farà il vero salto di qualità”. E se questo sembra solo un esperimento lontano dalla realtà, proviamo a chiederci come si comporterebbe un’auto senza guidatore se dovesse scegliere, per esempio in caso di un improvviso sbandamento, tra l’incolumità del passeggero dell’auto e quella di un gruppo di persone ai margini di una strada. Deciderebbe di salvare il passeggero, provocando magari una strage di innocenti in attesa dell’autobus? Deciderebbe di “suicidarsi”? Oppure andrebbe in tilt puntando direttamente sulla fermata dell’autobus a tutta velocità e provocando la morte di tutti?
Come ha dichiarato Richard Hunter, Vp & Fellow Gartner, in un’intervista rilasciata a ZeroUno qualche tempo fa (vedi CISO: i nuovi rischi etici e legali del business digitale): “Si entra in una fase di rischio di tipo nuovo, etico e di conseguenza legale. Ogni macchina con capacità decisionale agisce con riferimento esplicito o implicito a un ‘sistema di valori’ (ossia gli algoritmi che le fanno agire) che universali non sono, anzi talora sono in conflitto. Insomma, i nuovi rischi del digital business non sono solo grandi, ma di nuovo genere”.
Un altro tema riguarda l’integrità dell’identità personale. Sono innegabili i passi avanti compiuti dalla bioingegneria e ci sono sistemi che consentono di leggere e utilizzare i segnali neurali associati all’attività cognitiva per controllare un arto artificiale, con indubbio beneficio per chi ha subito un’amputazione. “Queste ricerche bioniche – scrive Tamburrini – si propongono soprattutto di ripristinare o di vicariare funzioni senso-motorie perdute, ma aprono la strada al potenziamento di apparati senso-motori e cognitivi che funzionano regolarmente. È opportuno chiedersi se sia nella nostra disponibilità modificare la nostra dotazione ‘naturale’ di capacità senso-motorie e cognitive attraverso interventi bionici. Una risposta positiva a tale quesito suscita a sua volta domande sulla persistenza dell’identità personale, prima e dopo l’intervento bionico. Più specificamente: una modifica delle funzioni mentali, sensoriali o motorie resa possibile dai sistemi bionici può indurre una modifica dell’identità personale?”.
In conclusione, queste riflessioni non rappresentano un freno all’evoluzione delle nuove tecnologie e alla ricerca sull’Intelligenza Artificiale, ma ci portano a ricordare che deve essere sempre l’intelligenza umana a governarla.
È questa anche la sostanza della “Lettera aperta sull’Intelligenza Artificiale”, pubblicata il 15 gennaio2015 sul sito di Future of Life Institute (http://futureoflife.org/ai-open-letter/), firmata da 400 scienziati di tutto il mondo, tra cui Erik Brynjolfsson, Mit Professor – Director of Mit Initiative on the Digital Economy e autore, insieme a Andrew McAfee, di The Second Machine Age (che analizza l’impatto delle smart machine sulla società), Elon Musk, imprenditore dell’high tech che dirige Tesla Motors e ha fondato il progetto SpaceX, e Stephen Hawking, l’astrofisico autore della teoria del Big Bang e dei buchi neri: “I potenziali benefici [dell’Intelligenza Artificiale, ndr] sono enormi…noi non possiamo prevedere quello che potremo ottenere dagli strumenti di IA, è insondabile quanto potranno fare per sradicare malattie e povertà”, ma è proprio a causa di questo potenziale del quale oggi non siamo neanche in grado di comprendere la portata che, scrivono gli scienziati: “…è importante che venga analizzato il modo in cui possiamo trarne benefici, evitandone al tempo stesso le potenziali insidie. I nostri sistemi di intelligenza artificiale dovranno fare quello che noi vogliamo che facciano. Per questo è importante e opportuna un’analisi su come renderli un elemento positivo per l’umanità”.