La clonazione vocale non è più un esperimento riservato ai laboratori. Oggi bastano pochi secondi di registrazione per creare un modello capace di imitare tono, ritmo e inflessioni di una voce reale. Strumenti pensati per doppiaggio, accessibilità o creazione di contenuti vengono sempre più spesso utilizzati per scopi meno nobili. Le ultime segnalazioni mostrano un aumento delle truffe vocali basate sull’AI, in cui un malintenzionato chiama fingendosi un familiare o un collega, chiedendo aiuto economico o informazioni riservate. L’inganno funziona perché la voce, più ancora dell’immagine, crea una sensazione immediata di autenticità.
Raccolta dell’audio e creazione della voce sintetica
La fase iniziale è sorprendentemente semplice. I truffatori recuperano audio da messaggi vocali, video pubblici, storie social o persino brevi clip inviate via chat. Grazie agli strumenti di clonazione, anche un file di pochi secondi può generare un modello sufficientemente credibile. Una volta ottenuta la voce sintetica, il criminale costruisce un messaggio basato sull’urgenza: una richiesta di denaro, un “problema improvviso” o una necessità legata al lavoro. La credibilità è talmente alta che molte vittime riconoscono immediatamente la voce e non mettono in dubbio la situazione.
Inganni mirati e contatti preparati
Alcuni truffatori preparano la vittima raccogliendo informazioni dai social: viaggi, orari di lavoro, nomi di parenti, date importanti. Questi dettagli vengono inseriti nella telefonata per aumentare l’autenticità e creare un racconto coerente. È un uso dell’AI particolarmente pericoloso perché unisce tecnologia e ingegneria sociale, rendendo difficile distinguere realtà e finzione.
Come proteggersi dalle truffe vocali generate dall’AI
La regola fondamentale è verificare sempre una richiesta sospetta attraverso un secondo canale. Se un “parente” chiama chiedendo un bonifico urgente, un semplice messaggio su un’altra app può confermare se la richiesta è autentica. È utile impostare restrizioni sulla privacy dei social, limitando chi può ascoltare vocali o vedere contenuti pubblici.
Anche le aziende stanno introducendo procedure rafforzate: autorizzazioni doppie, parole chiave interne, sistemi di autenticazione che non si basano esclusivamente sulla voce.
