L’intelligenza artificiale è indubbiamente la tecnologia più discussa del momento. Da quando ChatGPT è stato lanciato lo scorso 30 novembre, “AI” è rapidamente diventata la parola d’ordine nelle earning calls. Nei soli primi 3 mesi di questo anno, oltre un miliardo e mezzo di dollari sono stati investiti in startup di generative AI, per non parlare degli investimenti in aziende quotate come Nvidia. Ogni settimana vengono rilasciate decine di tool open source: è un vero e proprio AI boom.
Molti però si sconcertano al pensiero che le potenzialità dell’intelligenza artificiale vengano messe a servizio dell’industria dei ransomware — una preoccupazione che affonda le sue radici nella realtà: esistono già, infatti, dei ransomware scritti e/o ottimizzati dall’AI.
Deepfake phishing: che cos’è
Prima di tutto bisogna fare una distinzione tra “AI-powered ransomware” e “AI-enabled ransomware”. Mentre con AI-powered ransomware ci si riferisce alla possibilità che l’intelligenza artificiale venga usata per ottimizzare o addirittura scrivere un ransomware da zero, AI-enabled ransomware si riferisce a tutti quei casi in cui l’AI non è utilizzata direttamente per scrivere o migliorare il codice ma piuttosto per facilitare l’attacco stesso.
In questo secondo ambito, il metodo più comune di attacco è il deepfake, cioè un video o audio di una persona in cui il corpo o la cui voce sono stati alterati in modo tale da sembrare quelli di un’altra persona. In breve: nel video si vede Tom Cruise, ma non è Tom Cruise. Questa tecnologia, un tempo pura fantascienza, è oggi piuttosto sempre più usata in elaborati attacchi di phishing e ingegneria sociale.
È questo il caso dell’amministratore delegato di un’azienda energetica britannica che nel 2019, credendo di essere al telefono con il CEO della società madre tedesca, eseguì l’ordine di trasferire immediatamente 220 mila euro su un altro conto. Similmente Rick McElroy, cybersecurity strategist presso VMware, racconta di aver parlato con due corporate security chief le cui aziende erano cadute preda di deepfake. In entrambi i casi l’attacco è risultato in furto a 6 cifre. È andata peggio al manager di una banca di Hong Kong che nel 2020 ha trasferito 35 milioni di dollari su (falso) ordine del direttore dell’azienda.
Cosa c’entra tutto questo con i ransomware? Moltissimo se si considera che oltre metà degli attacchi ransomware inizia col phishing. Non per nulla c’è già chi parla di phishing 2.0 — un phishing che, grazie all’AI, può essere super personalizzato in maniera automatica per frodare la vittima.
La stragrande maggioranza delle aziende non è attrezzata contro attacchi simili. Già nel 2021, l’analista di Gartner Darin Stewart scriveva che “mentre le aziende fanno fatica a difendersi dai ransomware, non stanno facendo niente per prepararsi a un’imminente ondata di media sintetici.” Serve una “strategia di difesa dai deepfake,” aggiungeva Stewart.
Secondo il World Economic Forum, il numero di video deepfake online cresce del 900% l’anno. E, riporta VMware, in due casi di attacco informatico su tre c’è di mezzo un deepfake, un incremento del 13% rispetto al 2021.
Ransomware + ChatGPT: un mix letale
L’altro grande tema quando si parla della combinazione di ransomware e intelligenza artificiale è ChatGPT. Così come si possono creare “cloni audiovisivi” della realtà — i deepfake, per l’appunto — con ChatGPT è possibile creare “cloni linguistici”: testi scritti talmente bene da sembrare opera di un umano. Questa possibilità è assai perniciosa se si considera che ancora oggi l’email è il mezzo più usato per il phishing. Anche se il deepfake phishing prende piede, la maggior parte di questi attacchi passa ancora per la parola scritta.
Ed è qui che entra in gioco ChatGPT. Grazie a ChatGPT — o a qualsiasi altro LLM (large language model), il criminale informatico può automatizzare il processo di scrittura e, cosa ancora più preoccupante, scrivere email scritte su misura per le sue vittime sulla base di informazioni pubbliche raccolte sui social media.
L’uso degli LLM negli attacchi ransomware si sta diffondendo a macchia d’olio. Come riportato nell’ultimo Network Threat Trends Research Report di Unit 42, “tra novembre 2022 e aprile 2023 abbiamo notato un aumento del 910% nelle registrazioni mensili di domini, sia benigni che maligni“. Si tratta per lo più di usi malevoli di ChatGPT al fine di creare squatting domains — siti web deliberatamente creati per essere simili a quelli di marchi o prodotti popolari, al fine di ingannare le persone.
Un altro metodo di attacco è quello di creare siti web che millantano di offrire LLM simili a ChatGPT, se non addirittura lo stesso ChatGPT. In un rapporto pubblicato di recente, Meta, la società madre di Facebook, ha affermato che malware camuffati da ChatGPT sono in aumento su tutte le sue piattaforme. L’azienda ha dichiarato che da marzo 2023 i suoi esperti di sicurezza hanno scoperto 10 famiglie di malware che utilizzano ChatGPT per diffondere software dannoso nei dispositivi dei consumatori.
BlackMamba e ChattyCaty: l’avvento del ransomware polimorfico
All’inizio del 2023, Jeff Sims, ingegnere di sicurezza presso la società di cyber security HYAS InfoSec, è riuscito a costruire un payload keylogger polimorfico che ha chiamato BlackMamba.
In breve, BlackMamba è un eseguibile Python che interroga l’API di ChatGPT per creare un keylogger dannoso che muta a ogni chiamata in fase di esecuzione per renderlo polimorfico ed eludere i filtri EDR (endpoint and response).
Nel contesto di BlackMamba, racconta Sims “i limiti del polimorfismo sono la creatività del prompt engineer e la qualità dei dati di addestramento del modello per produrre risposte generative.”
Nel proof of concept di BlackMamba, dopo la raccolta delle sequenze di tasti, i dati vengono esfiltrati tramite web hook — una funzione di callback basata su HTTP che consente la comunicazione event-driven tra API — a un canale di Microsoft Teams. Secondo Sims, BlackMamba ha eluso più volte un’applicazione EDR “leader del settore”, anche se l’ingegnere non ha specificato quale.
Ma BlackMamba non è l’unico caso in cui l’AI viene utilizzata in maniera diretta in un attacco informatico: c’è anche ChattyCaty. Un altro proof of concept, creato da Eran Shimony e Omer Tsarfati della società di sicurezza informatica CyberArk, ChattyCaty utilizza ChatGPT all’interno del malware stesso. Secondo gli autori, il malware include “un interprete Python che interroga periodicamente ChatGPT per trovare nuovi moduli capaci di eseguire azioni dannose. Richiedendo a ChatGPT funzionalità specifiche come l’iniezione di codice, la cifratura dei file o la persistenza possiamo facilmente ottenere nuovo codice o modificare quello esistente”.
A differenza di BlackMamba, ChattyCaty non è stato concepito per un tipo specifico di malware. Piuttosto, fornisce un framework per costruire un’enorme varietà di malware, compresi ransomware e infostealer. “Il nostro POC, ChattyCaty, è un progetto open-source che dimostra un’infrastruttura per la creazione di programmi polimorfici utilizzando modelli GPT”, aggiunge Tsarfati. “Il polimorfismo può essere utilizzato per eludere il rilevamento da parte di programmi antivirus e malware”.
Ransomware + AI: ecco come correre ai ripari
Quali strategie di difesa contro i ransomware è dunque necessario adottare per non lasciarsi trovare impreparati? Una soluzione assai discussa dai ricercatori è l’AI detection, ovvero l’individuazione tramite intelligenza artificiale di deepfake e testi scritti da LLM secondo la logica, portata avanti anche dal celebre investitore e imprenditore Marc Andreessen, per cui la migliore difesa contro l’AI è l’AI stessa. Purtroppo però, i limiti sono ancora numerosi. Il classifier di OpenAI infatti ha una percentuale di successo solo del 26%, con un tasso di falsi positivi del 9%. Molti, tra cui la stessa OpenAI, sono alla ricerca di soluzioni basate sulla crittografia, ciononostante non ci sono ancora applicazioni sul mercato né tanto meno prototipi realmente efficienti.
Ma la situazione, forse, non è così critica quanto sembra. Seppure deepfake phishing e LLM abbiamo semplificato il social engineering, nulla è cambiato nella metodologia con cui l’attacco stesso si realizza. Se da una parte infatti l’AI generativa permette di affinare le modalità di attacco, essa trova ancora un valido avversario nelle tecniche di cybersecurity in uso tuttora, ovverosia versioning e object locking. Che cosa significano questi termini?
Il versioning è un processo che permette di tenere traccia di diverse versioni di un file o di un documento nel tempo. Grazie al versioning, ogni volta che l’utente apporta una modifica, il sistema salva una copia della versione precedente. Quindi, se un giorno l’utente realizzi che ha cancellato qualcosa di importante, o se semplicemente desidera recuperare la versione precedente di un file, può farlo in pochi click.
L’object locking, in italiano “blocco dell’oggetto”, è una funzione di protezione dei dati che permette all’utente di “congelare” un file per un tempo da lui stabilito. Una volta che un file è bloccato, non può essere modificato o cancellato per un certo periodo di tempo. Questo può essere molto utile se l’utente ha dati sensibili che vuole proteggere da modifiche accidentali o non autorizzate, quali ad esempio quelle fatte dai ransomware.
Sia versioning che object locking sono funzionalità messe a disposizione da alcune soluzioni di cloud object storage di nuova generazione — per esempio Cubbit, azienda italiana con sede a Bologna che ha costruito il primo cloud geo-distribuito d’Europa. Con Cubbit, i dati sono crittografati, frammentati in chunk ridondanti e archiviati in maniera distribuita sul perimetro italiano con l’obiettivo di garantire alle aziende sovranità digitale e al contempo una solida protezione dagli attacchi informatici.