Si potrebbe definire un’appendice del Digital Service Act (DSA) il Centro europeo per la trasparenza algoritmica (European Centre for Algorithmic Transparency – ECAT) lanciato a fine aprile dai leader dell’Unione. Un’iniziativa del tutto attuale, che si propone di dare un seguito concreto alla già esistente e approvata normativa comunitaria su social media e algoritmi di ricerca.
Libertà vigilata per le Big
Come stabilito dal DSA, entrato in vigore il 16 novembre 2022, ci sono delle regole da rispettare per le piattaforme che desiderano continuare a godere dei ricavi legati al mercato europeo. In particolare, quelle con più di 45 milioni di utenti, denominate “Very Large Online Platforms” e “Very Large Online Search Engines”, sono obbligate a presentare ogni anno una valutazione dei rischi. Nella pratica, si tratta di un documento con cui illustrare il proprio impegno e le misure adottate per proteggere gli utenti da contenuti illegali o disinformazione.
Ogni piattaforma coinvolta da questa nuova imposizione, quindi, deve descrivere dettagliatamente come funzionano i propri algoritmi. Non solo, secondo il DSA è tenuta anche a spiegare agli utenti e all’UE in modo trasparente le logiche che definiscono le modalità con cui gli inserzionisti possono raccomandare contenuti.
Tutto ciò verrà applicato da gennaio 2024, ma le aziende si stanno già portando avanti e anche l’UE, proprio istituendo l’ECAT. Il suo compito sarà controllare il software e assicurarsi che le regole vengano rispettate.
La sua attività sarà svolta all’interno del Centro comune di ricerca della Commissione europea. Verrà portata avanti da un team indipendente di scienziati appositamente reclutati per dare indicazioni super partes. L’ECAT si focalizzerà solo e soltanto sull’analisi degli algoritmi utilizzati nei servizi online come i social media, la ricerca, il commercio elettronico e altri ancora. Lo farà collaborando con aziende, mondo accademico e società civile, per meglio far comprendere a tutti il funzionamento degli algoritmi. In particolare, si impone di analizzarne la trasparenza e di valutarne i rischi, non senza proporre best practices e nuovi approcci più trasparenti.
No black box: l’UE vuole trasparenza
Una iniziativa come quella dell’ECAT, seppur molto verticale, rappresenta una mossa importante, lato UE, all’interno di una più ampia strategia di approccio all’AI. Questa tecnologia che oggi sembra evolversi in modo inafferrabile, è ogni giorno sfidante con la sua crescente complessità dello scaling dinamico e del deep learning.
I massicci investimenti privati in infrastrutture di calcolo e la corsa per il controllo dell’hardware di nuova generazione registrati negli ultimi mesi hanno spinto l’UE a non stare a guardare. Il suo più generale obiettivo è quello di vigilare sull’innovazione per assicurarsi che l’AI resti allineata con i valori umani europei.
Niente black box, quindi, e via a regolamentazioni e linee guida per cercare di controllare un futuro imprevedibile e, allo stesso tempo, inevitabile. Una missione complessa, ma un tentativo va comunque fatto. L’ECAT ne costituisce una parte e, da qualche settimana, è ufficialmente attivo. Ora è in atto la fase di reclutamento attivo di esperti che possano ricoprire ruoli di ricerca o di ispezione. Intanto i legislatori dell’UE continuano a discutere l’AI Act, per costruire una classificazione delle applicazioni in base a diversi livelli di rischio, il più attuale possibile.