Truffe in rete sempre più sofisticate con la GenAI. Come difendersi?

scritto da il 27 Settembre 2024

Post di Ferdinando Mancini, Director, Southern Europe & Israel Sales Engineering, Proofpoint

La posta elettronica è storicamente il principale vettore di minacce. Ma sempre più spesso, le aziende sentono la necessità di includere anche social media, sms e chiamate vocali nella formazione sulla sicurezza informatica. Perché? Perché l’AI generativa (GenAI) trasforma il social engineering (ingegneria sociale) e i gli attori delle minacce ne fanno ampio uso per rubare l’identità di persone, più o meno note.

I cybercriminali possono utilizzare l’AI generativa per creare immagini, testi, contenuti audio e video ed elaborare truffe efficaci per il furto di dati personali, finanziari o sensibili e automatizzare le loro operazioni, aumentando le probabilità di successo. Possono anche scalare e distribuire gli attacchi attraverso diversi canali, come app di messaggistica, social media, telefonate e, naturalmente, email.

Secondo il recente report State of the Phish di Proofpoint , il 58% delle persone che ha intrapreso un’azione pericolosa nel 2023 era consapevole che il proprio comportamento li stesse mettendo  in pericolo. Questo porta a una domanda cruciale: quando si riceve un messaggio – chat, SMS, vocali o email – si può essere sicuri al 100% che il mittente sia chi dice di essere? Non in un mondo in cui gli attaccanti utilizzano la GenAI.

Sono almeno quattro le principali modalità con cui i cybercriminali utilizzano questa potente tecnologia per raggirare le loro vittime.

Truffe conversazionali convincenti

I cybercriminali utilizzano la GenAI per creare truffe conversazionali estremamente convincenti che imitano le interazioni umane, facendo leva su modelli di elaborazione del linguaggio naturale che li aiutano nella generazione di messaggi personalizzati. Tra i più comuni, ci sono le reti neurali ricorrenti, i modelli trasformatori (come GPT-3) e quelli sequenza a sequenza.

Le esche utilizzate variano, ma hanno tutte l’obiettivo di avviare una conversazione con il destinatario e conquistare la sua fiducia. I criminali informatici possono interagire con un obiettivo per settimane o mesi per creare una relazione al fine di convincerlo a inviare denaro, investire in una piattaforma fasulla di criptovalute, condividere informazioni finanziarie o effettuare altre azioni.

*Come funzionano?*

Gli attori delle minacce raccolgono un numero elevato di conversazioni basate su testo da fonti come social media, app di messaggistica, registri delle chat, violazioni dei dati e interazioni con il servizio clienti. Utilizzano i dataset per addestrare i modelli NLP a comprendere e generare testo simile a quello umano sulla base ai prompt utilizzati. I modelli imparano a riconoscere gli schemi, a comprendere il contesto e generare risposte che sembrano naturali.

Una volta addestrato un modello, potrebbero utilizzarlo per generare messaggi per raggirare le proprie vittime. Le conversazioni possono imitare personaggi o modelli linguistici specifici, oppure creare risposte adatte a scenari di truffa comuni. Questo rende difficile per le persone distinguere tra comunicazioni legittime e false su piattaforme social come Instagram, app di messaggistica come WhatsApp e siti di incontri come Tinder.

GenAI

Designed by Freepik

 

Deepfake realistici  con la GenAI

I cybercriminali possono utilizzare la GenAI per creare deepfake molto realistici che replicano l’aspetto, la voce o i modi di fare di una persona. Utilizzando modelli avanzati di machine learning (ML).

*Come funzionano?*

Gli attori delle minacce raccolgono un set di dati di immagini, registrazioni audio o video che presentano la persona di cui vogliono imitare le sembianze, e lo utilizzano per addestrare il modello GenAI a creare contenuti falsi sotto forma di immagini o video. Il modello può valutare l’autenticità dei propri contenuti.

Uno molto diffuso è la Generative Adversarial Network (GAN), che può produrre progressivamente deepfake più convincenti affinando e ottimizzando i suoi metodi. Ad esempio, può regolare i parametri del modello, aumentare il set di dati di addestramento o perfezionarne il processo. Per migliorare ulteriormente il realismo del deepfake, gli attaccanti  potrebbero utilizzare tecniche di post-elaborazione come la regolazione dell’illuminazione e del colore o l’aggiunta di sottili imperfezioni.

I deepfake possono essere strumenti potenti in scenari pericolosi e possono essere utilizzati formati vocali per impersonare i propri cari. Un esempio è la popolare truffa telefonica – detta “Hi Mum” – in cui un malintenzionato finge di essere il figlio o il nipote di una persona che chiede denaro per un’emergenza.

Proprio come le impronte digitali, anche il timbro vocale è unico per ogni persona. I malintenzionati possono estrapolare i dati biometrici da un piccolo campione di contenuti, come messaggi vocali, video registrati e podcast, per imitarne la voce con la GenAI.

Attacchi BEC personalizzati 

Nel report  State of the Phish 2024, abbiamo rilevato come la GenAI stia probabilmente aiutando oi cybercriminali con gli attacchi BEC, soprattutto in Paesi non anglofoni. Per questo motivo, gli attacchi BEC sono in aumento in nazioni come Giappone, Corea ed Emirati Arabi Uniti, che gli attaccanti hanno evitato in passato a causa di barriere linguistiche, differenze culturali o mancanza di visibilità.

Le truffe BEC comportano in genere tattiche di impersonificazione. Gli attori delle minacce fingono di essere persone fidate, come i dirigenti di un’azienda, con l’obiettivo  di indurre i dipendenti a compiere azioni non sicure, come trasferire denaro o rivelare dati sensibili.

Ora i cybercriminali possono utilizzare la GenAI per migliorare questi attacchi, scrivendo in molte lingue, e in modo convincente, migliorando la qualità dei messaggi e creandoli più velocemente.

*Come funzionano?*

La GenAI apprende modelli e relazioni in un insieme di contenuti creati dall’uomo e di etichette corrispondenti, utilizzando quindi gli schemi appresi per generare nuovi contenuti. In questo modo, gli attaccanti possono accelerare e automatizzare la creazione di messaggi di social engineering  personalizzati per i singoli destinatari e altamente convincenti.

Ad esempio, i malintenzionati possono usare GenAI per scrivere email e testi falsi che imitano lo stile, il tono e la firma di un individuo di cui hanno rubato l’identità. Possono utilizzare il modello di AI per automatizzare la creazione di questi messaggi di phishing e generarne rapidamente un gran numero su misura per i destinatari. Ciò rende difficile valutarne l’autenticità.

Anche i deepfake possono svolgere un ruolo importante in questi attacchi, perché gli attori delle minacce potrebbero sottolineare la validità delle loro richieste facendo seguire messaggi vocali, chiamate o messaggi video che sembrano essere di un responsabile che dà istruzioni o autorizza transazioni.

Profili e post fasulli automatizzati  

Abbiamo visto come la GenAI possa generare immagini, audio e video realistici di persone reali. I malintenzionati possono anche adottarla per creare identità fittizie  da utilizzare sui social media e sulle piattaforme di notizie, o per automatizzare la creazione di grandi volumi di account, articoli, grafici, commenti e post fasulli.

*Come funzionano?*

Con un minimo addestramento, i modelli di GenAI possono analizzare dati e profili dei social media pubblici e adattarli a casi d’uso mirati. I modelli possono:

  • – Imitare lo stile e il tono delle comunicazioni legittime provenienti da fonti attendibili
  • – Tradurre e localizzare testi in più lingue
  • – Gestire attività ripetitive, come rispondere ai messaggi

Gli attori delle minacce possono utilizzare identità false per allinearsi agli interessi dei loro obiettivi. Ad esempio, potrebbero automatizzare il processo di creazione di profili su piattaforme come Facebook, Instagram, forum e app di incontri. Potrebbero anche utilizzare modelli di intelligenza artificiale per elaborare rapidamente i dati delle conversazioni sui social media e scrivere automaticamente risposte convincenti. Il loro obiettivo è stabilire un’ampia gamma di relazioni attraverso le quali sfruttare vulnerabilità e fiducia delle persone.

Fondamentale la formazione alla sicurezza

In tutti questi scenari, usano la GenAI per fingere in modo realistico e convincente di essere qualcuno che non sono, manipolano la psicologia umana con l’ingegneria sociale, portando le persone a compiere azioni non sicure, come cliccare su link dannosi, fornire informazioni personali o trasferire fondi.

È essenziale affrontare la formazione alla sicurezza con una mentalità critica e rimanere informati su minacce emergenti e contromisure. Informare gli utenti sui rischi della GenAI richiede un approccio multiforme alla consapevolezza sulla sicurezza, di fondamentale importanza per i dipendenti che gestiscono transazioni finanziarie o dati sensibili.