TechTarget

Prevenire i deepfake nell’era della GenAI: guida alle sfide e alle tecniche di sicurezza



Indirizzo copiato

Le aziende devono alzare i loro livelli di attenzione per rilevare le sfumature sempre più sofisticate dei deepfake applicando tecniche di sicurezza che vanno dalle più semplici alle più complesse

Pubblicato il 22 ago 2024



Prevenire i deepfake

Prevenire i deepfake utilizzati per creare immagini, audio e video falsificati per le aziende è doveroso ma sfidante. Fenomeno manipolatorio dell’immaginario collettivo, i deepfake hanno un impatto anche sul business. Al punto da essere diventati un argomento centrale rispetto alla progettazione della postura della sicurezza informatica aziendale. La sfida? Mantenere la fiducia degli utenti nelle interazioni private e commerciali online, proteggendo sia le persone che gli affari. Come? Imparando a distinguere le comunicazioni vere da quelle false.

Come e perché i deepfake minacciano le aziende

L’uso dei deepfake varia in modo significativo. A livello aziendale le minacce includono:

  • Servizi di risposta al chiamante. Questi servizi utilizzano deepfake per fornire risposte personalizzate alle richieste del chiamante che coinvolgono l’inoltro di chiamata e altri servizi di receptionist.
  • Assistenza telefonica al cliente. Questi servizi utilizzano voci false per semplici attività come controllare il saldo di un conto o presentare un reclamo.
  • False prove. In un caso legale, la fabbricazione di immagini o audio falsi possono essere utilizzati come prova per condizionare il verdetto di colpevolezza o innocenza.
  • Frode. I deepfake vengono utilizzati per impersonare un individuo e ottenere informazioni di identificazione personale (PII), come numeri di conto bancario e di carta di credito. Ciò può talvolta includere l’impersonificazione di dirigenti di aziende o altri dipendenti con credenziali per accedere a informazioni sensibili, il che rappresenta una grave minaccia alla sicurezza informatica.
  • Manipolazione azionaria. I materiali falsi deepfake vengono utilizzati per influenzare il prezzo delle azioni di una società. Ad esempio, un video falso di un amministratore delegato che fa dichiarazioni dannose sulla sua società potrebbe abbassare il prezzo delle sue azioni. Un video falso su una svolta tecnologica o sul lancio di un prodotto potrebbe aumentare le azioni di una società.
  • Messaggistica. Il rapporto “Increasing Threat of Deepfake Identities” del Dipartimento per la sicurezza interna degli Stati Uniti ha citato la messaggistica di testo come un futuro utilizzo della tecnologia deepfake. Gli autori della minaccia potrebbero usare tecniche deepfake per replicare lo stile di messaggistica di un utente.
  • Ricatto e danno alla reputazione di uno o più manager. In un video un’immagine bersaglio viene artificiosamente inserita in una situazione illegale, inappropriata o altrimenti compromettente, come mentire al pubblico, impegnarsi in atti sessuali espliciti o assumere droghe. Gli obiettivi possono essere diversi: estorcere denaro a una vittima, rovinare la reputazione di una persona, vendicarsi o semplicemente fare cyberbullismo.

Esempi di attacchi deepfake

Il primo serio attacco deepfake si è verificato nel 2019. Gli hacker hanno impersonato una richiesta telefonica di un CEO per predisporre un bonifico bancario che ha permesso al cybercrime di intascare 243mila dollari. Quell’incidente ha costretto gli istituti finanziari a essere più vigili e ad adottare maggiori precauzioni.

Due anni dopo, nel 2021, dei criminali hanno ingannato un direttore di banca facendogli trasferire la cifra esorbitante di 35 milioni di dollari su un conto bancario fraudolento. I criminali sapevano che la società stava per effettuare un’acquisizione tramite bonifico bancario e, di conseguenza, hanno programmato l’attacco per intercettare il trasferimento dei fondi.

Oggi la quantità di deepfake che gira in rete ha sensibilizzato maggiormente molte persone su questo fronte. Il problema è che l’evolutiva tecnologica è talmente rapida e sofisticata che è sempre più difficile riconoscere quando si tratta di fake.

Esempi dolosi, come l’imitazione delle istruzioni di un manager ai dipendenti, si stanno moltiplicando man mano che i deepfake diventano più realistici e difficili da rilevare.

Come funziona la tecnologia AI deepfake

I deepfake utilizzano tecniche di apprendimento profondo, come le reti generative avversarie, per alterare e simulare digitalmente una persona reale.

Il principio di funzionamento utilizza un algoritmo generatore e un algoritmo discriminatore progettati per creare e perfezionare contenuti falsi.

  • Il generatore crea un set di dati di training basato sull’output desiderato, creando il contenuto digitale falso iniziale
  • il discriminatore analizza quanto sia realistica o falsa la versione iniziale del contenuto

Questo processo va a ripetizione, consentendo al generatore di migliorare la creazione di contenuti realistici e al discriminatore di diventare più abile nell’individuare difetti che il generatore deve correggere.

La combinazione degli algoritmi generatore e discriminatore crea una rete generativa avversaria (Generative Adversarial Networks – GAN), ovvero un’architettura per addestrare un modello generativo di AI composta da due reti neurali che si allenano insieme e si ottimizzano a vicenda, per creare immagini fake indistinguibili.

Più in dettaglio, una GAN utilizza il deep learning per riconoscere i pattern nelle immagini reali e li utilizza per creare i falsi. Quando si crea una fotografia deepfake, un sistema GAN visualizza le fotografie del bersaglio da una serie di angolazioni per catturare tutti i dettagli e le prospettive. Quando si crea un video deepfake, la GAN visualizza il video da varie angolazioni e analizza anche i pattern di comportamento, movimento e linguaggio. Queste informazioni vengono quindi eseguite più volte attraverso il discriminatore per perfezionare il realismo dell’immagine o del video finale.

In sintesi, i video deepfake vengono creati in due modi:

  • Possono usare una fonte video originale del target, in cui la persona dice e fa cose che non ha mai fatto
  • Possono scambiare il volto della persona con un video di un altro individuo, noto anche come face swap

Di seguito sono riportati alcuni approcci specifici per la creazione di deepfake:

  • Deepfake video sorgente

Quando si lavora da un video sorgente, un autoencoder deepfake basato su rete neurale analizza il contenuto per comprendere gli attributi rilevanti del target, come espressioni facciali e linguaggio del corpo. Quindi impone queste caratteristiche al video originale. Questo autoencoder include un encoder (che codifica gli attributi rilevanti) e un decoder (che impone questi attributi al video target).

  • Deepfake audio

Per i deepfake audio, un GAN clona l’audio della voce di una persona, crea un modello basato sui pattern vocali e usa quel modello per far dire alla voce qualsiasi cosa il creatore voglia. Questa tecnica è comunemente usata dagli sviluppatori di videogiochi.

  • Sincronizzazione labiale

La sincronizzazione labiale è un’altra tecnica comune utilizzata nei deepfake. Qui, il deepfake mappa una registrazione vocale al video, facendo sembrare che la persona nel video stia pronunciando le parole nella registrazione. Se l’audio stesso è un deepfake, allora il video aggiunge un ulteriore livello di inganno. Questa tecnica è supportata da reti neurali ricorrenti.

Le tecnologie per generare deepfake

Secondo il rapporto “Increasing Threat of Deepfake Identities” del Dipartimento per la sicurezza interna degli Stati Uniti, diversi strumenti sono comunemente utilizzati per generare deepfake in pochi secondi.

Questi strumenti includono:

  • Deep Art Effects
  • Deepswap
  • Deep Video Portraits
  • FaceApp
  • FaceMagic
  • MyHeritage
  • Wav2Lip
  • Wombo
  • Zao

Prevenire i deepfake AI

Fortunatamente, anche gli strumenti per rilevare i deepfake stanno migliorando. I rilevatori di deepfake possono cercare segni biometrici rivelatori all’interno di un video, come il battito cardiaco di una persona o una voce generata da organi vocali umani anziché da un sintetizzatore. Vero è che gli strumenti utilizzati oggi per addestrare e migliorare questi rilevatori domani potrebbero essere utilizzati per addestrare anche la prossima generazione di deepfake.

Nel frattempo, le aziende possono adottare diverse misure per prepararsi alla crescente incidenza e complessità degli attacchi deepfake, dalla semplice formazione dei dipendenti per individuare i segnali di questi attacchi fino a strumenti e procedure di autenticazione e sicurezza più sofisticati.

Prevenire i deepfake generati con l’ausilio della GenAI

Il problema è che la GenAI, grazie ai miglioramenti negli strumenti creati per scopi legittimi, sta diventando sempre più abile anche nel creare deepfake che possono sembrare e suonare realistici. Microsoft, ad esempio, ha appena lanciato un nuovo servizio di traduzione linguistica che imita la voce umana in un’altra lingua. La preoccupazione delle aziende è che questi strumenti rendano anche più facile per i malintenzionati interrompere la continuità operativa aziendale.

Se nelle sue prime fasi di sviluppo, la deepfake AI era in grado di generare una rappresentazione generica di una persona, più di recente, i deepfake hanno utilizzato voci e video sintetizzati di individui specifici per lanciare attacchi informatici, creare fake news e danneggiare la reputazione. L’ultima generazione di bot, ad esempio, utilizza la tecnologia deepfake per eludere il rilevamento diventando sempre più realistici e accessibili, diffondendo disinformazione su larga scala. Alcuni degli spoofer più sofisticati hanno potenziato gli attacchi di ingegneria sociale in modo inquietante.

Analogamente a quanto fatto con il phishing, per prevenire i deepfake le aziende devono lavorare moltissimo sulla formazione, insegnando al personale a cosa prestare attenzione e a riconoscere i segnali di una manipolazione.

What is Deepfake AI? Deepfake Content and Elections

Le migliori pratiche per rilevare la tecnologia deepfake

Un tempo, la maggior parte delle presentazioni video e audio online potevano essere accettate come reali. Oggi non è più così. Per rilevare i deepfake servono nuove abilità con una combinazione di arte e scienza.

#1 Iniziare a osservare con un atteggiamento più critico

Come fanno notare gli esperti, è possibile che gli esseri umani rilevino cadenze vocali irregolari o ombre irrealistiche attorno agli occhi di una persona generata dall’intelligenza artificiale. La stragrande maggioranza dei deepfake, infatti, lascia comunque la sensazione che qualcosa non vada, e questo perché ci sono errori nel processo che lasciano residui.

Esistono diversi segnali rivelatori che gli esseri umani possono ricercare per provare a capire se si tratta o meno di deepfake.

Deepfake di immagini statiche o in movimento:

In video e immagini i segnali rilevatori possono essere:

  • Incongruenze nella pelle e in parti del corpo
  • Ombre intorno agli occhi
  • Modi insoliti di ammiccamento
  • Riflesso insolito sugli occhiali
  • Movimenti della bocca non realistici
  • Colorazione delle labbra innaturale rispetto al viso
  • Peli facciali incompatibili con il viso
  • Nei irreali sul viso
  • Posizionamento insolito o scomodo del viso
  • Movimenti innaturali del viso o del corpo
  • Colorazione innaturale
  • Video che appaiono strani quando vengono ingranditi o ingranditi
  • Audio incoerente
  • Persone che non battono ciglio

Il problema è che la tecnologia continua a migliorare e molti di questi vecchi segnali stanno scomparendo.

Oggi i segnali rivelatori possono essere intercettati da professionisti esperti in grado di cogliere le anomalie nell’illuminazione e nell’ombreggiatura, che la tecnologia deepfake deve ancora perfezionare.

Questo è il motivo per cui le aziende stanno sempre più usando dati sintetici 3D per sviluppare modelli di verifica facciale più sofisticati che usano dati facciali tridimensionali, multisensore e dinamici per condurre il rilevamento della vitalità.

Deepfake audio

Per quanto riguarda i deepfake audio, i segnali rivelatori possono essere individuati in frasi spezzate, strane scelte di parole e nell’inflessione o nel tono di voce anomali del parlante.

Deepfake testuali

Nei deepfake testuali gli indicatori possono essere:

  • Errori di ortografia
  • Frasi che non fluiscono in modo naturale
  • Indirizzi email di provenienza sospetta
  • Formulazione che non corrisponde al presunto mittente
  • Messaggi fuori contesto che non sono pertinenti ad alcuna discussione, evento o problema

#2 Avvalersi dell’analisi forense

Esperti di analisi forense possono esaminare i metadati del file video o audio per determinare il livello di manipolazione o alterazione. Utilizzando un software specializzato è possibile far partire una modalità di ricerca inversa delle immagini per scoprire quelle visivamente simili usate in altri contesti.

#3 Usare i nuovi standard tecnici come la C2PA

Nuovi enti di standardizzazione come la Coalition for Content Provenance and Authenticity (C2PA) stanno creando standard tecnici per verificare la fonte, la cronologia e l’origine dei contenuti. La C2PA promuove la collaborazione del settore con aziende, tra cui Adobe, Arm, Intel, Microsoft e Truepic. Adobe e Microsoft stanno anche lavorando su credenziali di contenuto che aiutano a verificare l’autenticità dei contenuti digitali. L’iniziativa si propone di sviluppare standard tecnici aperti per certificare la provenienza e l’autenticità di immagini, video, audio e documenti. Attraverso l’implementazione di metadati crittograficamente firmati, noti come C2PA manifests, C2PA permette ai consumatori di verificare l’origine e la storia dei contenuti semplicemente cliccando su un’icona di credenziali di contenuto.

«Le specifiche C2PA non servono a fornire giudizi di valore sul fatto che un determinato insieme di dati di provenienza sia buono o cattivo contenuti – spiega Paolo Benanti, Presidente della Commissione AI per l’informazione e unico italiano membro del Comitato sull’Intelligenza Artificiale delle Nazioni Unite nonché consigliere di Papa Francesco sui temi dell’intelligenza artificiale e dell’etica della tecnologia, in un recente post su Linkedin -, ma solo che le asserzioni incluse possano essere convalidate come associate all’asset sottostante, formate correttamente e prive di manomissioni. Cioè C2PA mi consente di firmare un contenuto e permette a chi lo consuma di vedere chi lo ha firmato e ci ha messo la faccia. Questo non risolve completamente il problema del controllo dei deepfake, ma rappresenta un passo importante verso una comunicazione digitale basata su principi etici di trasparenza e affidabilità. C2PA può anche essere utilizzato per firmare sintografie, ovvero immagini sintetiche prodotte dalle intelligenze artificiali, permettendo al firmatario di dichiarare la propria associazione con il contenuto».

Il punto di attenzione è che le specifiche di C2PA sono agnostiche e funzionalizzate solo a garantire che le asserzioni incluse siano corrette e prive di manomissioni.

In questo modo C2PA porta un elemento del mondo dell’editoria tradizionale, l’idea di un editore come garante dei contenuti, nel mondo digitale, promuovendo una cultura della trasparenza e dell’affidabilità online.

Come creare procedure di sicurezza efficaci

Per proteggersi dagli attacchi di spoofing le aziende dovrebbero seguire queste best practices:

  • Modificare i processi mediante il reverse engineering del modo in cui gli hacker utilizzano i deepfake per penetrare nei sistemi di sicurezza
  • Stabilire politiche e procedure basate sulle norme del settore e sui nuovi standard
  • Rimanere aggiornati sugli strumenti e sulle tecnologie più recenti per contrastare i deepfake più sofisticati

Software di protezione per prevenire i deepfake

Alcune aziende di social media utilizzano la tecnologia blockchain per verificare la fonte di video e immagini prima di consentirne l’uso sulle loro piattaforme. In questo modo, vengono stabilite fonti attendibili e i falsi vengono prevenuti. In questa direzione, Facebook e Twitter hanno entrambi bandito i deepfake dannosi.

Tra i software che aiutano a prevenire i deepfake gli esperti segnalano:

  • Adobe, che ha un sistema che consente ai creatori di allegare ai video e alle foto una firma con i dettagli della loro creazione
  • Microsoft che dispone di un software di rilevamento dei deepfake basato sull’AI che analizza video e foto per fornire un punteggio di affidabilità che indica se il contenuto multimediale è stato manipolato.
  • Takedown Piracy, azienda dedicata alla protezione dei proprietari di contenuti dagli effetti dannosi della pirateria, ha appena lanciato Operation Minerva, servizio creato per combattere i deepfake che si avvale di cataloghi di deepfake scoperti in precedenza per stabilire se un nuovo video è semplicemente una modifica di un falso esistente che è stato scoperto e a cui è stata assegnata un’impronta digitale.
  • Sensity, che offre una piattaforma di rilevamento che utilizza il deep learning per individuare le indicazioni di supporti deepfake nello stesso modo in cui gli strumenti antimalware cercano firme di virus e malware. Gli utenti vengono avvisati tramite e-mail quando visualizzano un deepfake.

Il futuro degli attacchi deepfake

Analogamente al Ransomware as a Service, secondo gli osservatori c’è da aspettarsi un’evoluzione del deepfake As a Service basato sulla tecnologia di rete neurale che consentirà a chiunque di creare un video su chiunque.

Sia il settore pubblico che quello privato dovranno collaborare insieme e rimanere estremamente vigili.

Articoli correlati

Articolo 1 di 4