È anche normativa, non solo tecnologica, la frammentazione che appesantisce l’ecosistema europeo dell’innovazione. Strategicamente importante, quindi, la proposta della Commissione Europea che, per la prima volta, punta a un’armonizzazione delle norme nazionali in materia di responsabilità per l’IA.
In apparenza, le nuove regole appaiono dedicate “solo” alle vittime di danni legati all’uso di prodotti e servizi, sempre che siano in grado di dimostrarne “la colpevolezza”. L’iniziativa è invece anche – e soprattutto – mirata a spingere lo sviluppo del mercato dell’intelligenza artificiale. Assieme al Libro Bianco sull’AI e alle precedenti proposte di legge inerenti, definisce infatti un quadro di riferimento virtuoso per diffondere maggiore fiducia nell’AI all’interno dell’UE e spingerne l’utilizzo responsabile.
Regole eque e prevedibili per tutti
Per rendere l’attuale quadro giuridico più favorevole alla digital transformation, la Commissione intende aggiornare e uniformare le leggi sulla responsabilità di prodotti e servizi AI includendo tutti i tipi di danni coperti dalle leggi nazionali. Errori di privacy, scarsa sicurezza, discriminazioni da parte di un software, per esempio in fase di recruiting: numerose sono le richieste di risarcimento che diventeranno più facili da effettuare.
Le potenziali vittime potranno beneficiare di un iter legale più semplice, soprattutto nel momento in cui sono chiamate a dimostrare la “colpa” dell’AI. Questo passaggio non è affatto banale e le attuali normative non aiutano a spiegare quando prodotti come robot, droni o device per smart home diventano insicuri a causa degli aggiornamenti del software. Oppure quando servizi digitali necessari per il loro funzionamento non affrontano le vulnerabilità di cybersecurity. La Commissione vuole inserire la “presunzione di causalità” e fornire strumenti per ottenere un risarcimento legale introducendo maggiore flessibilità nelle limitazioni temporali relative alla presentazione delle richieste e alleggerendo l’onere della prova in casi complessi.
Le aziende, in questo contesto, sono obbligate a fornire dettagli all’utente ma acquisiscono anche il diritto di opporsi alla cessione di informazioni sensibili, come i segreti commerciali, dimostrando l’”innocenza” dell’AI. Non si tratta, quindi, di una presa di posizione netta a favore dei consumatori, bensì di un fermo tentativo di garantire a livello europeo regole eque e prevedibili per tutti. Le aziende in primis ne hanno un forte bisogno per pianificare, investire e crescere.
Dato l’assenza di autonomia tecnologica da parte dell’Unione, la norma interviene anche per creare condizioni di maggiore parità tra i produttori dell’UE e quelli extra-UE. Ciò significa che chi viene danneggiato da prodotti non sicuri importati da paesi extra-UE non deve rinunciare a ottenere giustizia, ma può rivolgersi all’importatore o al rappresentante UE del produttore per essere risarcito.
La crescita del mercato AI passa dalla fiducia degli utenti
Più o meno convincenti e condivisibili, le nuove norme metterebbero finalmente le aziende del mondo dell’innovazione di fronte a un quadro chiaro e omogeneo. Una garanzia sulla gestione della responsabilità dell’intelligenza artificiale che permette a developer e produttori pionieri di avventurarsi nello sviluppo di nuove applicazioni AI.
Spiegare a cosa si va incontro innovando, almeno dal punto di vista legale, è un presupposto fondamentale per incoraggiare l’evoluzione di un mercato europeo AI che, pur crescendo, non sta al passo con le altre aree del mondo parimenti sviluppate. Secondo il report “Artificial Intelligence – Global Market Trajectory & Analytics” di Research and Markets, infatti, sono gli Stati Uniti a dominare con il 41,2% di un mercato globale che raggiungerà i 341,4 miliardi entro il 2027. La Cina li rincorre sfiorando il 40% mentre Canada e Giappone promettono crescite con tassi superiori al 20% nei prossimi anni. E l’Europa? Secondo le stime può sperare in un mercato da 64,7 miliardi di dollari entro il 2027 trainato dal +31,2% della Germania.
L’impennata di fiducia nell’AI da parte degli utenti che la Commissione desidera innescare potrebbe però cambiare questo quadro. Il delicato equilibrio tra protezione degli utenti e promozione dell’innovazione racchiuso nella proposta per l’AI sarebbe infatti replicato anche per prodotti legati all’economia circolare. Una conferma della volontà di fare avanzare transizione green e digitale di pari passo.
I tempi restano comunque vincolati agli iter convenzionali: la proposta presentata a fine settembre deve essere discussa, modificata e approvata dal Parlamento Europeo e dal Consiglio dell’Unione Europea prima di diventare legge. Cinque anni dopo la sua entrata in vigore, potrebbe essere completata da nuove norme in materia di responsabilità oggettiva per le azioni connesse all’AI, se necessarie a mettere l’Europa al centro della competizione globale per una innovazione responsabile.