L’IA clona la voce della gente per difenderla. O truffarla

Aiutaci a crescere: lasciaci un like :)

Che le funzionalità di Intelligenza Artificiale sarebbero prima o poi impiegate nelle telefonate, era una sola questione di tempo. Negli USA (e in Corea del Sud) sono piuttosto avanti con l’applicazione in questo ambito della tecnologia e inizialmente è stata impiegata per difendere i consumatori dalle chiamate truffaldine. Non fosse altro che i truffatori, ora, usano la stessa tecnica.

Clonare la voce per difendere e truffare

Diverse settimane fa TrueCaller e aziende simili in USA hanno annunciato la possibilità di utilizzare l’IA per identificare telefonate di truffatori o di spoofing. Recentemente, anche Samsung, in Corea del Sud, ha annunciato di aver predisposto Bixby affinché possa clonare la voce del proprietario del telefono per difenderlo dalle chiamate truffaldine. Ora, secondo un articolo del Washington Post, i malfattori stanno contrattaccando con la medesima tecnica.

Difatti i truffatori stanno applicando l’Intelligenza Artificiale per generare una telefonata con la voce simile ad amici e parenti delle vittime designate. In questo modo saranno più propensi a spedire denaro qualora fosse richiesto. Negli Stati Uniti solo nel 2022, le truffe di questo genere sono state le più popolari. Più di 36.000 le segnalazioni di persone truffate da chi si spacciava di essere amici o membri della famiglia, 5.100 volte con tentativi telefonici portati a segno. In totale le perdite sono state di 11 milioni di dollari, secondo l’articolo. Al momento questa nuova truffa non è ancora in grado di essere fermata a dovere, inoltre le vittime ha pochi indizi per identificarne l’autore, così come per la polizia è difficoltoso rintracciare chiamate e fondi di truffatori che operano ovunque nel mondo. Anche i precedenti legali per i tribunali, che ritengono le aziende che rendono questi strumenti responsabili per gli utilizzi truffaldini, sono modesti.

Come funziona

Il software di generazione vocale AI analizza ciò che rende unica la voce di una persona, inclusi età, sesso e accento, e cerca in un vasto database di voci per trovarne di simili e prevedere modelli. Può quindi ricreare il tono, il timbro e i singoli suoni della voce di una persona per creare un effetto complessivo simile. Richiede un breve campione di audio, tratto da luoghi come YouTube, podcast, spot pubblicitari, video di TikTok, Instagram o Facebook.

Per frenare la truffa, gli esperti consigliano di mettere in attesa una chiamata sospetta e di chiamare il proprio familiare separatamente per verificare la situazione. Inoltre, è importante diffidare di eventuali richieste di contanti e di non pagare mai le persone con buoni regalo. Tuttavia, le forze dell’ordine potrebbero non avere abbastanza risorse per dedicare molto tempo o personale alle indagini di queste truffe. Inoltre, i tribunali dovrebbero considerare responsabili le società di intelligenza artificiale se i prodotti che realizzano provocano danni. Le vittime riferiscono di aver reagito con orrore viscerale quando hanno sentito i propri cari in pericolo. È un impatto oscuro del recente aumento dell’intelligenza artificiale generativa, che supporta software che crea testi, immagini o suoni in base ai dati che riceve.

L’IA si parlerà da sola?

Ma non è detto che da qui a breve le Intelligenze Artificiali non si parlino al telefono da sole. Difatti al MWC 2023 appena concluso, alcune aziende hanno presentato soluzioni per bloccare le chiamate truffaldine. Tra queste, come riporta AI Business, Tovie AI ha generato un avatar 3D che può rispondere alle chiamate al posto dell’utente e parlare al suo posto, con tonalità di voce naturali. L’avatar risponde al telefono, chiede chi sta chiamando e perché, informa il chiamante dell’assenza dell’utente e gli chiede di lasciare un messaggio. Il sistema trascrive quindi la chiamata e invia una copia della conversazione all’utente, insieme all’audio. Secondo l’azienda, questa soluzione può essere integrata nel firmware esistente e anche in applicazioni come WhatsApp e Telegram.

Per tenere lontani i truffatori, lo strumento di intelligenza artificiale di Tovie può identificare in modo intelligente le chiamate di spam sia dal numero che dal significato semantico del dialogo. La soluzione è alimentata dalla piattaforma di comprensione del linguaggio naturale (NLU) di Tovie, progettata per capire ciò che il chiamante sta dicendo. La tecnologia di OpenAI, l’azienda che ha creato ChatGPT, è poi integrata nella soluzione per fornire all’utente finale un riassunto della conversazione, mentre la piattaforma di sintesi del discorso emotivo di Tovie aggiunge tonalità alla voce dell’assistente.

Il test

La soluzione è stata testata in Europa orientale e più recentemente in Brasile, dove un milione di utenti l’ha testata. Entrambe le regioni sono ottime zone di test per questa tecnologia. Il numero medio di chiamate di truffa settimanali ricevute dai consumatori brasiliani era di 2,36 miliardi lo scorso novembre, secondo i dati del governo. Inoltre, i centri di chiamate truffa stanno aumentando anche in nazioni dell’Europa orientale come la Georgia. È stato riferito che i truffatori provenienti da questa parte del continente si sono addirittura fatti passare per Europol, l’agenzia di polizia europea, nel tentativo di rubare informazioni personali e denaro.

Insomma, non è lontano il giorno in cui un’IA che vuole portare a termine una truffa, riceverà una risposta dall’altro capo della cornetta da un’altra IA che vuole evitarla.
Chissà quali delle due passerà il test di Turing.

Giornalista pubblicista, SEO Specialist, fotografo. Da sempre appassionato di tecnologia, lavoro nell'editoria dal 2010, prima come fotografo e fotoreporter, infine come giornalista. Ho scritto per PC Professionale, SportEconomy e Corriere della Sera, oltre ovviamente a Smartphonology.