Le truffe basate su deepfake vocali non sono più fantascienza, e i numeri lo dimostrano in modo piuttosto inquietante. Una nuova indagine internazionale condotta da Hiya su oltre 12.000 utenti in sei paesi (Stati Uniti, Regno Unito, Canada, Francia, Germania e Spagna) ha acceso i riflettori su un problema che sta crescendo a una velocità impressionante: le chiamate fraudolente realizzate con voci sintetiche generate dall’intelligenza artificiale stanno diventando sempre più comuni e non si tratta più di episodi sporadici.
Il dato che colpisce di più riguarda gli Stati Uniti, dove circa un intervistato su quattro ha dichiarato di aver ricevuto almeno una chiamata con voce generata dall’IA negli ultimi mesi. Un ulteriore 24% ha ammesso di non essere stato in grado di distinguere, durante una telefonata, tra una voce artificiale e quella di una persona reale. Numeri che fanno riflettere, soprattutto se si considera che questa tecnologia è accessibile praticamente a chiunque.
L’intelligenza artificiale come arma nelle mani dei truffatori
Secondo il rapporto di Hiya, la crescente disponibilità di strumenti di intelligenza artificiale generativa sta accelerando quello che viene definito un vero e proprio processo di trasformazione dell’IA in strumento per attività criminali. Alex Algard, CEO e fondatore di Hiya, ha usato parole piuttosto nette: “I truffatori stanno trasformando l’intelligenza artificiale in un’arma per clonare voci e sottrarre denaro alle persone più vulnerabili, e i criminali si stanno muovendo più velocemente delle difese tradizionali delle reti”.
Il punto centrale, secondo Algard, è che non si può pretendere che le persone comuni riescano da sole a battere in astuzia un sistema di intelligenza artificiale sempre più sofisticato. La descrizione che ne fa è quella di una vera e propria corsa agli armamenti tecnologica: da un lato i truffatori che sfruttano l’IA come arma offensiva, dall’altro gli operatori che dovrebbero usarla come scudo.
Le nuove tecniche di clonazione della voce permettono ai criminali di imitare una persona con molta meno fatica rispetto al passato. In alcuni casi, le chiamate simulano la voce di familiari o contatti fidati, e questo è forse l’aspetto più pericoloso dell’intera faccenda. Le vittime credono di rispondere a una richiesta legittima da parte di qualcuno che conoscono, e abbassano le difese proprio nel momento in cui dovrebbero tenerle alte.
La richiesta di intervento cresce anche in Italia
Il fenomeno dei deepfake vocali non riguarda solo gli Stati Uniti. Negli USA sono sempre più gli utenti che chiedono un intervento deciso da parte delle autorità per arginare il problema delle truffe telefoniche basate sull’IA. Una situazione che rispecchia quanto sta accadendo anche nel nostro paese, dove proprio di recente si è parlato di una truffa importante ai danni di un’impresa italiana, portata a termine con tecniche simili.
