Già nel 2020, Forrester Research aveva previsto che i costi associati alle truffe perpetrate tramite contenuti deepfake, avrebbero superato i 250 milioni di dollari. Oggi tale tecnica di sintesi di immagini basata sull’AI non è più una preoccupazione solo per una nicchia di esperti. Si sta diffondendo in modo rapido, complici alcuni “casi d’uso” con larga copertura mediatica, come i video “falsi” di Tom Cruise, Elon Musk e Leonardo DiCaprio apparsi online.
Se finora una affermazione in video era considerata autentica per definizione, oggi servono strumenti affidabili per accertarsene. Quello appena presentato da Intel, FakeCatcher, rispetto ai precedenti tentativi, si distingue per l’approccio tecnologico e per la promessa di una identificazione di falsi “in real time”.
Rilevare deepfake dal colore delle vene grazie ai segnali PPG
Progettato in collaborazione con la State University of New York di Binghamton, il rilevatore di deepfake di Intel è basato sui segnali PPG, già noti ma mai usati in questo contesto. La maggior parte degli strumenti anti truffe deepfake finora presentati, infatti, hanno sempre sfruttato il deep learning per esaminare i dati grezzi e individuare eventuali contenuti non autentici.
FakeCatcher va invece a “scovare” indizi all’interno dei video: grazie alla fotopletismografia (PPG), riesce infatti a misurare la quantità di luce assorbita o riflessa dai vasi sanguigni nei tessuti viventi. Si va oltre a ciò che è percepibile all’occhio umano, quindi, e si punta su segnali computazionalmente visibili quando il cuore pompa il sangue, modificando il colore delle vene. Raccogliendo queste variazioni in 32 punti del viso, FakeCatcher è in grado di creare mappe PPG dalle componenti temporali e spettrali per poi proporle a una rete neurale convoluzionale appositamente addestrata per classificarle come false o reali.
Oggi è possibile valutare in tempo reale fino a 72 flussi di rilevamento simultanei raggiungendo, secondo Intel, un livello di precisione del 96%. Se confermato, è un risultato importante nel campo del rilevamento di contenuti manipolati, ma di fronte a cui la ricerca non si arresta. Il team di esperti da cui nasce FakeCatcher, chiamato Trusted Media, ha infatti intenzione di sviluppare altri rilevatori basati su diversi indizi di autenticità, come il rilevamento dello sguardo. L’obiettivo è quello di riuscire a individuare la fonte e il modello GAN di ogni deepfake, sfruttando il consenso algoritmico dato da un insieme di modelli AI come quello creato.
Bias e diversity: i “soliti” problemi dell’AI spuntano anche con i deepfake
L’universo dei deepfake si può dividere in due aree. Ci sono i deepfake interattivi, che offrono l’illusione di parlare con una persona reale, e i deepfake compositivi, in cui i malintenzionati creano una vera e propria narrazione distorta. Noti quasi unicamente per il loro utilizzo fraudolento, questi contenuti presentano anche una serie di applicazioni utili. C’è chi li sfrutta per la formazione interattiva dei dipendenti, per l’istruzione o l’e-commerce, oppure per implementare una sorta di gemello virtuale. Ciò non toglie che debbano essere riconoscibili come video manipolati, non rimanendo “mimetizzati” tra quelli reali.
Anche in questa applicazione di intelligenza artificiale emerge la sfida della diversity. A metterla in luce una ricerca della University of Southern California secondo cui persone di un certo sesso o con un determinato colore della pelle potrebbero essere sottorappresentate, a seconda del set di dati utilizzati. Nulla di sorprendente per chi conosce questa tecnologia, ma resta il fatto che una differenza nel tasso di errore del 10,7% al variare della razza di appartenenza, non è accettabile. Da questo punto di vista, FakeCatcher compie un significativo passo avanti. Le sue performance, infatti, non dipendono dalle specifiche caratteristiche del protagonista e nemmeno dal tono di illuminazione.
L’approccio scelto da Intel sarebbe vincente anche contro attacchi che inducono gli altri rilevatori a confondere immagini reali e “contraffatte”. Questo pericolo non esiste perché l’estrazione PPG non è differenziabile e non si può inserire nella funzione di perdita di una rete avversaria e non è possibile eseguire il backpropagate.
Restano comunque ancora numerosi i trabocchetti da imparare a evitare. Secondo gli esperti, quella del rilevamento di deepfake sarà una “lunga corsa agli armamenti evolutiva”, complessa ma, allo stesso tempo stimolante. Sicuramente fondamentale per poter continuare a utilizzare e condividere immagini e video, con la certezza di conoscerne la natura.