News

I truffatori ora utilizzano l’IA per trasformare la loro voce in quella di un parente

L’intelligenza artificiale è da tempo un argomento centrale nel mondo della tecnologia. Sebbene l’intelligenza artificiale abbia il potenziale per fare cose davvero impressionanti, come generare immagini basate su una singola riga di testo, stiamo iniziando a vedere anche gli aspetti negativi.

Molti software di generazione vocale che usano l’AI hanno fatto molti passi avanti. Ad oggi infatti bastano poche frasi affinché il software riproduca in modo convincente il suono e il tono della persona registrata. Da allora la tecnologia si è evoluta al punto che bastano pochi secondi di dialogo per imitare accuratamente qualcuno.

Un caso finito sui giornali

In un nuovo rapporto del Washington Post ha mostrato che sono migliaia le vittime che affermano di essere state ingannate da IA che si fingono di essere persone care

. Secondo quanto riferito, le truffe sono diventate il secondo tipo di frode più popolare in America con oltre 36.000 casi presentati nel 2022. Di questi 36.000 casi, oltre 5.000 vittime sono state truffate tramite telefono, per un totale di 11 milioni di dollari di perdite secondo i funzionari della FTC.

Una storia che è finita sui giornali riguardava una coppia di anziani che ha inviato oltre 15.000 euro tramite un terminale Bitcoin ad un truffatore dopo aver creduto di aver parlato con il figlio. La voce dell’IA aveva convinto la coppia che il figlio era in difficoltà legali dopo aver ucciso un diplomatico statunitense in un incidente d’auto.

Condividi
Pubblicato da
Simone Paciocco