Le nuove tecnologie come l’intelligenza artificiale (AI) e l’apprendimento automatico (ML) hanno aperto nuove frontiere in molti settori, ma hanno anche creato nuove opportunità per i criminali informatici. Uno dei fenomeni più inquietanti è l’uso di queste tecnologie in schemi di “rapimenti virtuali”. Scopriamo cosa sono.
Un crimine diffuso negli USA
Come riportato nello studio di Trend Micro, Negli Stati Uniti, l’FBI ha già messo in guardia il pubblico su come i criminali informatici utilizzino la tecnologia deepfake per manipolare foto e video innocui e convertirli in schemi redditizi di sextortion. La Federal Trade Commission ha stimato che nel 2022 le perdite derivanti da queste attività illecite hanno raggiunto i 2,6 miliardi di dollari.
Una truffa comune prevede l’utilizzo di file vocali falsi generati dall’intelligenza artificiale, noti anche come audio deepfake. Strumenti come VoiceLab possono elaborare la biometria vocale, dando vita a un vocale che riproduce esattamente la voce di una persona specifica. Questo processo è anche definito clonazione vocale e si verifica quando la biometria vocale è utilizzata per compiere estorsioni o frodi.
I rapimenti virtuali e il caso di Jennifer De Stefano
Nell’aprile DEL 2023, in Arizona, Jennifer De Stefano ha ricevuto una chiamata in cui un anonimo affermava di aver rapito sua figlia di 15 anni e chiedeva un riscatto di 1 milione di dollari. La donna ha affermato di aver sentito chiaramente il pianto, le urla e la voce supplichevole della figlia in sottofondo. Dopo alcuni minuti di negoziazione, l’importo del riscatto è sceso a 50.000 dollari. Fortunatamente, De Stefano è riuscita a verificare che sua figlia fosse al sicuro prima di pagare il riscatto. La truffa è stata poi denunciata alla polizia.
I giovani e i personaggi pubblici, essendo i primi adottanti di nuove tecnologie e piattaforme social, sono particolarmente a rischio. I cybercriminali utilizzano piattaforme come TikTok, Facebook e Instagram per identificare e selezionare le loro vittime.
Come funziona un attacco simile
- Il criminale identifica una potenziale vittima in grado di pagare un riscatto.
- Il criminale sceglie la vittima, solitamente un minore
- Elaborazione di una storia in grado di manipolare i soggetti attaccati
- Raccolta della biometria vocale della vittima dai post sui social media
- Identificazione di tempistiche ed elementi logistici per sferrare la truffa
- Chiamare i familiari della vittima con riproduzione di deepfake audio
- Attività post-chiamata, che possono includere attività come riciclo di denaro, etc
Il ruolo dell’IA
Gran parte del lavoro in questo schema di attacco può essere ulteriormente automatizzato con strumenti di intelligenza artificiale, come ChatGPT o simili. Questi strumenti possono gestire grandi set di dati, con informazioni vocali e video con altri dati come la geolocalizzazione, rendendo l’attacco più redditizio e scalabile.
Quando le vittime pagano il riscatto, incoraggiano i malintenzionati a continuare a lanciare attacchi contro altre vittime. Inoltre, le loro informazioni vengono aggiunte a un elenco di vittime redditizie, che viene poi rivenduto ad altri aggressori. Per questo, saranno sempre più necessarie tecniche antifrode basate sull’identità e soluzioni di sicurezza avanzate.
Leave a Reply