Attualità

Quando ChatGPT capita nelle mani sbagliate. Il report di Europol

Le stesse risposte accurate di ChatGPT, e degli altri LLM, che stiamo imparando ad apprezzare, sono un’enorme risorsa anche per i criminali. In un report, Europol racconta come l’AI generativa sta cambiando il panorama delle forze dell’ordine, in termini sia di difesa che di attacco, soprattutto al cybercrime.  

Pubblicato il 26 Apr 2023

ChatGPT

I criminali informatici già eccellono nell’uso dell’intelligenza artificiale. Sempre “sul pezzo” e reattivi, non hanno aspettato un attimo a studiare come quella generativa possa aiutarli. Lo riesce a fare in diversi modi e su più fronti, trasformando il panorama degli attacchi e degli attaccanti. Chi, dall’altra parte della staccionata, cerca di bloccarli, deve procedere verso il futuro con il loro stesso passo. Non solo, può anche studiare come la nuova tecnologia possa aiutare “i buoni” e non solo gli hacker black hat. Europol ha iniziato a farlo con il report “ChatGPT. The impact of Large Language Models on Law Enforcement”, tratteggiando con acuta sintesi i possibili scenari che ci aspettano, come possibili vittime.

Prompt engineering for dummies per aggirare i controlli

Chiunque “consulti” i LLM (Large Language Model) si trova ad avere accesso a una enorme quantità di informazioni, tanto enorme da dover essere limitata.

Si pensi a un malintenzionato alle prime armi, per esempio: grazie a ChatGPT può ottenere un’ampia varietà di informazioni e tutorial, in risposta ai suoi prompt. Consapevole di questa opzione, OpenAI ha cercato di mettere degli argini a questo “sapere oceanico”. Ha infatti incluso una serie di funzioni di sicurezza per prevenire un uso malevolo del modello. La responsabilità di filtrare è quindi delegata all’endpoint di moderazione, che dovrà valutare in base al potenziale contenuto sessuale, di odio, di violenza o di promozione dell’autolesionismo.

Questi blocchi, però, attraverso il prompt engineering possono essere aggirati senza troppa fatica. Questi sforzi ingegneristici, se non bilanciati da valori e obblighi etici e aziendali o personali, sono vani. Anche avendo a che fare con il nuovo modello ChatGPT, si trovano tecniche per ottenere le risposte desiderate, qualsiasi esse siano. Eccone alcune:

  • domandare la creazione di prompt su indicazione discorsiva dell’utente
  • chiedere a ChatGPT di fornire la risposta come un pezzo di codice
  • fingere di essere un personaggio immaginario che parla dell’argomento
  • sostituire le parole chiave e cambiare il contesto in un secondo momento
  • modificare stile od opinione
  • creare esempi fittizi da cui facilmente risalire a eventi reali

A questi “trucchetti” da tastiera, si aggiungono dei piani più “diabolici” per aggirare i controlli. Sono già state creati, per esempio, set di istruzioni specifiche finalizzate al jailbreak del modello. Il cosiddetto jailbreak “DAN” (“Do Anything Now”), per esempio, permette di estorcere a ChatGPT la risposta a qualsiasi input, indipendentemente dalla sua natura potenzialmente dannosa.

Casi d’uso criminali per LLM

Il suo saper fornire informazioni pronte all’uso in risposta a un’ampia gamma di richieste, fa di ChatGPT uno strumento molto utile e desiderato. Allo stesso tempo lo rende un perfetto infinito sussidiario per principianti criminali. Con la giusta combinazione di parole in input, si possono infatti ricavare indicazioni per commettere ogni tipo di delitto.

C’è una sorta di democratizzazione unita al qualunquismo, in ambito criminale, ma non solo. C’è anche chi, già esperto in un certo tipo di misfatto, usa i LLM per commetterlo ancora meglio. Questo è il caso delle frodi, informatiche e non. Per ingannare meglio e più comodamente, si può chiedere a ChatGPT di redigere testi altamente autentici, sulla base di una nostra richiesta, alzando il livello del phishing. Se ne ricava un output estremamente realistico, adattabile alle diverse circostanze in cui si desidera operare. Si spazia dalle opportunità di investimento fraudolente alle compromissioni di e-mail aziendali, fino alle truffe ai danni dei CEO. Le frodi riescono a essere supportate anche da messaggi on line del tutto coerenti, scritti con lo stesso stile e privi di quegli errori che permettevano, fino a poco tempo fa, di smascherare gli inganni on line.

Un altro “caso d’uso” criminale di ChatGPT consiste nelle attività di disinformazione e propaganda. In entrambi i casi, la credibilità del modello rende facile e veloce creare e diffondere messaggi che riflettono una narrativa specifica, con uno sforzo relativamente ridotto. Lo stesso pericolo vale per frasi di incitamento all’odio o di terrorismo online.

Come già accennato, un’altra area criminale che sta sfruttando magnificamente l’AI generativa è quella del cybercrime. Oltre a generare un linguaggio simile a quello umano, ChatGPT è infatti in grado di produrre codice in diversi linguaggi di programmazione. Basta chiedere, quindi, per generare una serie di output pratici, in pochi minuti. Ciò significa consentire anche a chi non ha conoscenze tecniche, di sferrare attacchi di ogni tipo e complessi. L’importante è non lasciare che ChatGPT capisca cosa abbiamo intenzione di fare, ma a questo punto basta suddividere in singoli passaggi per lasciarlo all’oscuro del nostro reale scopo.

Nuove sfide in arrivo per tutti, serve sensibilizzare

Di fronte a questo panorama di crimini resi più sottili e semplici da ChatGPT, le forze dell’ordine non possono stare con le mani in mano. Lo stesso vale per quelle ONG che lavorano in settori come la protezione della sicurezza dei bambini o delle donne online.

Una risposta alle pressioni esercitate dall’opinione pubblica per garantire la sicurezza dei modelli generativi di AI, è Partnership on AI (PAI). Questa organizzazione di ricerca, senza scopo di lucro, ha stabilito una serie di linee guida su come produrre e condividere contenuti generati dall’AI in modo responsabile. Fra i sottoscrittori c’è anche OpenAI, che in questo modo si impegna anche a informare gli utenti che stanno interagendo con contenuti generati dall’AI attraverso watermark, disclaimer o elementi tracciabili.

Allo stesso tempo, l’Unione europea sta cercando di includere i sistemi di AI per scopi generici, come ChatGPT, in quelli regolati nell’AI Act, ora in fase di revisione finale.

In futuro, la disponibilità “worldwide” di modelli linguistici di grandi dimensioni potrebbe porre altre sfide, nuove e innovative, nel loro genere. Molte saranno legate alla produzione di deepfake ingannevoli e manipolatori. Un’altra area “promettente” potrebbe essere rappresentata dai sistemi di AI multimodali, che combinano chat bot conversazionali con sistemi in grado di produrre media sintetici. Tra questi, oltre ai deepfake altamente convincenti, ci sarebbero anche contenuti sensoriali, a partire da tatto, vista e udito.

Altri potenziali problemi sono legati all’emergere di “LLM oscuri”, che possono essere ospitati sul dark web, per fornire un chatbot senza alcuna protezione, oppure LLM addestrati su dati particolari e particolarmente dannosi. Un altro capitolo aperto, che diverrà ancora più difficile chiudere, sarà quello del trattamento dei dati degli utenti dei LLM.

Quelle che aspettano le forze di polizia, non in futuro ma già da ora, sono sfide complesse e molto varie. Considerato il potenziale danno che può derivare da un uso malevolo degli LLM, è fondamentale fin da ora sensibilizzare l’opinione pubblica su questo tema, cercando di creare un clima di collaborazione consapevole con gli utenti-vittime. Le forze dell’ordine dovranno anche comprendere, valutare e ipotizzare, a ciclo continuo, come i LLM possono trasformare le aree criminali potenzialmente interessate. Questo permetterebbe loro di prevedere, prevenire e indagare su diversi tipi di abusi criminali con maggior tempestività. Per fare tutto ciò, è necessario che i diretti interessati sviluppino le competenze tecnologiche necessarie per sfruttare al meglio modelli come ChatGPT, capendone i pericoli ma anche le opportunità. L’ideale sarebbe poi averne un paio personalizzati, formati sui propri dati specializzati nell’ambito d’azione individuato. Ciò richiede tempo e dati di qualità ma “restituirebbe” un risultato potenzialmente disruptive per il mondo della criminalità, anche di quella organizzata e più all’avanguardia.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4