Potremmo chiamarlo “paradosso della privacy” e sarebbe bene che, come argomento, venisse affrontato quanto prima in tutti gli ambiti possibili. Mettiamola così: la maggior parte delle persone. quando sono “vittime” di una possibile intrusione nella sfera privata sono pronte a indignarsi, denunciare e contrastare (spesso in maniera infantile) il sopruso subito. Quando si passa dall’altra parte della barricata, però, l’attenzione per la privacy evapora con una facilità disarmante.
È un problema? Sì. E rischia di diventare qualcosa di gigantesco adesso che Meta ha deciso di entrare in campo (sul serio) nel settore dell’AI generativa. Il fatto che tutti i contenuti postati da milioni di utenti nel corso degli ultimi 20 anni vadano a formare un dataset per l’addestramento di un LLM, infatti, ha delle implicazioni tutt’altro che banali.
Effetto domino
La vicenda Meta in realtà è in un momento di stallo. Riassumo per chi si fosse perso le ultime notizie: a causa di problemi con il GDPR (e il Digital Markets Act?) Meta ha rinviato l’avvio dell’addestramento del suo modello di AI generativa “europeo”, che avrebbe dovuto usare le informazioni pubblicate dagli utenti di Facebook e Instagram.
Prima della decisione di Meta (annunciata lo scorso 14 giugno dopo una richiesta formale del Garante della Privacy irlandese) gli utenti dei due social network avevano visto comparire un messaggio riguardante Meta AI, con il quale l’azienda di Zuckerberg segnalava la possibilità di eseguire una sorta di “opposizione” all’uso dei dati pubblicati.
Qui abbiamo un primo problema. In buona sostanza, Meta sta cambiando il modo in cui usa i dati che noi gli forniamo ogni giorno. Un cambiamento non da poco, per lo meno a livello di privacy. Se fino a oggi potevamo limitare in maniera piuttosto efficace l’accesso ai contenuti pubblicati (per esempio limitandolo agli “amici”) con Meta AI questo argine salta completamente. Vero che secondo le policy dell’azienda le informazioni non vengono collegate all’account, ma nomi e cognomi nei post circolano, eccome. Secondo problema: quanto sarà facile sfruttare quel dataset per risalire a opinioni politiche, religiose e di orientamento sessuale (considerate “sensibili”) e utilizzarle per qualsiasi scopo?
Certo, chi vuole può opporsi all’uso dei propri dati. Ma non tutti possono permetterselo. Di mio, non amo particolarmente i social network, ma sono un giornalista e avere visibilità è parte integrante del mio lavoro. Considerato che l’AI generativa sta guadagnando terreno in ogni ambito e che potrebbe arrivare a sostituire i tradizionali motori di ricerca, non comparire in un dataset di primo piano non è una bellissima idea. Quando ho approfondito la questione, però, ho scoperto un aspetto ulteriore della vicenda Meta AI.
La privacy nelle mani degli altri
Oltre a vietare l’uso dei dati personalmente pubblicati, Meta offre anche la possibilità di esprimere la propria volontà sull’utilizzo nel modello di informazioni che ci riguardano personalmente pubblicate da altre persone. Qui la questione si fa un po’ più complicata. Quando ho aperto la pagina relativa, mi sono trovato davanti alla possibilità di scegliere tra tre opzioni:
-Voglio accedere a tutte le informazioni personali di terzi usate per sviluppare e migliorare l’IA di Meta oppure scaricarle o correggerle.
-Voglio eliminare tutte le informazioni personali di terzi usate per sviluppare e migliorare l’IA di Meta.
-Voglio contestare o limitare l’elaborazione delle mie informazioni personali di terzi usate per sviluppare e migliorare l’IA di Meta.
E qui mi sono bloccato come un cerbiatto davanti agli abbaglianti di un’automobile… Scegliere se essere presente o meno in un dataset è già un bel dilemma. Capire come comportarsi in merito alla pubblicazione di informazioni provenienti da contenuti pubblicati da qualcun altro è un altro paio di maniche. Non è solo la scelta tra “esistere” e “non esistere” in Meta AI.
Il rischio, più che altro è che in quel dataset possa finire qualsiasi informazione che ci riguardi, magari con errori, informazioni sensibili come l’indirizzo di residenza o il numero di cellulare, o addirittura elementi pregiudizievoli.
Resta l’ultima ipotesi: “accedere a tutte le informazioni personali di terzi usate per sviluppare e migliorare l’IA di Meta oppure scaricarle o correggerle”. Già così, ha tutte le caratteristiche di un vero e proprio incubo. È anche solo lontanamente immaginabile che qualcuno si trovi nella condizione di dover spendere parte del suo tempo per impedire che Meta AI sia alimentata con dati tossici sulla sua persona? E nel caso di personaggi pubblici con maggiore visibilità, pensiamo ai personaggi politici, quale montagna di dati ci si troverebbe a dover gestire? Il blocco dell’addestramento di Meta AI (per lo meno in Europa) ci dà un po’ di tempo. Tuttavia, il problema rimane sul tavolo.
Proviamo però a ribaltare la questione: ci rendiamo conto che in questo scenario qualsiasi contenuto che pubblichiamo potrebbe diventare parte integrante della “conoscenza collettiva” di un motore di AI? Che la privacy di chi ci sta intorno dipenderà (anche) da noi? Dubito che la maggior parte delle persone riesca a cogliere le implicazioni di questo scenario.
Insomma: l’AI basata sui social sarà l’ennesimo banco di prova per la maturità di una collettività che ha la tendenza a prendere un po’ troppo “alla leggera” il contributo di ogni singolo individuo al modo in cui evolve il mondo che ci circonda. Speriamo bene…