Utenze private o aziendali che impiegano i prompt delle intelligenze artificiali, spesso digitano costrutti sintattici che possono contenere informazioni sensibili di varia natura. Anche richieste fatte a cuor leggero, magari solo per avere assistenza nello scrivere una e-mail per un cliente, potrebbero contenere dettagli di proprietà intellettuali che non si desiderano rendere pubblici. Per non parlare di richieste più complesse in campo medico, legale o scientifico. In mano a un modello di apprendimento, qualsiasi informazione potrebbe causare conseguenze ben più profonde della semplice profilazione operata dai motori di ricerca a fini di marketing. Perciò, è importante che l’acquisizione, la persistenza e la diffusione di queste informazioni siano disciplinate in modo da salvaguardare la privacy dell’utilizzatore.
Privacy e API AI
Se leggiamo con attenzione i TOS (Terms Of Service) di alcuni servizi di intelligenza artificiale, non possiamo fare a meno di notare che le linee guida relative al trattamento dei dati non sono esposte con la chiarezza che ci saremmo potuti aspettare. L’impiego delle interfacce di programmazione di alcuni servizi AI potrebbe rendere le informazioni trasmesse via API suscettibili di essere impiegate o divulgate a fini di ricerca, senza che siano definite misure ragionevoli per proteggere accesso e utilizzo dei propri dati. In questo modo, i dettagli della nostra vita o del nostro business che raccontiamo all’AI diventano utilizzabili dai modelli di apprendimento per finalità immediate, o per il training di comportamenti imprevedibili.
Il grande fratello?
Questa situazione è la diretta conseguenza dell’infrastruttura con cui molti servizi AI sono implementati: una server farm centrale in cui convogliano i dati raccolti da infiniti endpoint, un’architettura master/slave in cui l’utente non ha altra voce in capitolo se non rinunciare al controllo del dato una volta immesso nel sistema.
Questo rapporto distonico tra provider del servizio e utente finale è caratteristico di tutti i software SaaS centralizzati, in cui un’unica entità detiene il controllo dell’infrastruttura, mentre all’utente non è concesso in alcun modo di partecipare alla sua governance. Oltre alla mancanza di trasparenza, i dati immessi nel server centralizzato rimangono a disposizione di chiunque abbia accesso ai data lake, innescando anche il rischio di un leak del dato a opera di insiders o software malevoli.
L’approccio decentralizzato
Sono perciò due le principali criticità relative alla privacy: la scarsa trasparenza della gestione del dato e la sua accessibilità consentita dalla gestione del sistema. Per affrontare questi limiti intrinseci dell’architettura centralizzata, alcuni team hanno scelto di sviluppare i propri servizi di intelligenza artificiale su infrastrutture di tipo blockchain.
La blockchain, a differenza dei servizi SAAS, affida la gestione del dato non a una farm controllata da una singola entità, ma distribuendo i processi su una rete di nodi paritari, che contribuiscono alla sicurezza della rete e delle informazioni trattate. Gli utenti non sono fruitori passivi del servizio, ma possono partecipare alla governance dell’ecosistema grazie alla gestione attiva dei nodi; grazie ai sistemi di voto sono poi in grado di decidere le linee guida che devono orientare la modalità di trattamento del dato.
Un servizio di intelligenza artificiale su blockchain potrebbe inoltre decidere di implementare una pipeline a Zero Knowledge, in cui le informazioni vengono trasmesse al modello di apprendimento in totale riservatezza, creando un tunnel tra il prompt di immissione e la rete neuronale. In questo modo si evita il rischio che qualsiasi tipo di entità con accesso al sistema possa leggere il contenuto della richiesta effettuata al prompt, eliminando alla radice ogni eventuale rischio per la privacy.
Controllo all’accesso dei dati
I servizi di AI SAAS si appoggiano su architetture di archiviazione centralizzata dei dati, che sono soggette al rischio di degradazione della qualità del dato, e offrono un’ampia superficie di attacco a potenziali data breach.
Sostituendo questa architettura con la distribuzione dell’archiviazione su più nodi in una rete, la blockchain permette di implementare sistemi di ridondanza che migliorano la sicurezza e la riservatezza dei dati. La blockchain impiega poi un tipo di programmi dedicati, i cosiddetti smart contract, che permettono di definire accordi sicuri di condivisione dei dati, garantendone l’accesso e l’utilizzo solo secondo le regole che l’utente ha approvato per mezzo della firma dal proprio wallet.
Intelligenza artificiale e censura
Un servizio AI SAAS potrebbe facilmente identificare i propri utilizzatori rilevando certe informazioni in fase di login. Grazie a questa profilazione, certi servizi potrebbero essere parzialmente o totalmente preclusi a determinati utenti. Questo perché in un contesto centralizzato l’utente non può operare con la garanzia dell’anonimato.
Se da un punto di vista etico c’è uniformità di pareri nell’impedire l’utilizzo dei modelli di apprendimento per finalità illegali e immorali, la questione diventa più complessa quando un servizio di AI esercita una censura in base a finalità commerciali o politiche, filtrando le richieste in base ai profili da cui provengono. L’AI su blockchain, per contro, mitiga l’interferenza di suddetti sistemi di censura, grazie al sistema dei login via wallet, la cui profilazione è complessa se non in certi casi impossibile.