Bastano pochi secondi, non più di quattro, per trasformare la nostra voce in un’arma da rivolgere contro noi stessi. La clonazione della voce è l’ultima arrivata nel campo delle truffe e delle frodi digitali e sembra avere tutte le intenzioni di guadagnare velocemente terreno. Come è facile immaginare, il campo delle frodi vocali è stato aperto dall’evoluzione galoppante dell’intelligenza artificiale. I criminali sono capaci ormai di imitare tono, accento e anche le inflessioni di ciascuno di noi.
Non servono che poche parole pronunciate al telefono per rischiare di vedersi clonare la voce. La clonazione vocale è una delle applicazioni più temibili dell’AI. I truffatori della rete la usano per entrare in possesso di dati personali, credenziali bancarie. Il resto lo fanno le tecniche di ingegneria sociale ben conosciute – e applicate – dai malintenzionati.

Mai dimenticare che hacker e truffatori sono prima di tutti esperti manipolatori della mente in grado di azionare le leve potentissime che guidano la nostra psicologia: desiderio e paura. Nel caso delle frodi vocali si tratta della paura di perdere qualcuno di caro o di non riuscire ad aiutarlo quando serve. Anche nel nostro Paese il fenomeno è in crescita, veicolato dalla sempre maggiore diffusione di messaggi vocali e della facilità con cui la nostra voce circola tra reel, note audio e messaggi.
Attenzione alla nuova truffa che ti clona la voce
Al giorno d’oggi tutti lasciano qualche “traccia vocale” in rete, vere e proprie impronte fonetiche che i truffatori sono pronti a sfruttare per confezionare le loro trappole. Negli ultimi mesi diversi utenti hanno segnalato di essere stati truffati attraverso telefonate-trappole che si basano su voci sintetiche generate dall’intelligenza artificiale. La truffa è semplice: un algoritmo registra un frammento di voce della vittima – basta un estratto da una nota vocale, da una rapida conversazione o da un video – e provvede a rielaborarla fino a duplicarla in maniera pressoché perfetta.
Per ottenere un clone digitale praticamente indistinguibile dalla voce originale bastano appena 4 secondi. Tanti – o meglio pochi – ne servono all’AI per imparare a parlare con la nostra voce. A questo punto i truffatori possono sbizzarrirsi creando scenari altamente credibili: una telefonata del figlio in preda a una crisi di panico, un amico pronto a implorare aiuto nel pieno di un’emergenza o ancora un familiare che ci chiede un trasferimento urgente di denaro.

Anche l’orecchio più allenato difficilmente riesce a evitare di cadere nella trappola delle voci sintetiche. A rendere la truffa ancora più insidiosa è la facile reperibilità in rete dei software per clonare la voce con un campionamento audio anche minimo. Come evitare di farsi frodare dai truffatori vocali? Prima di tutto bisogna diffidare delle telefonate improvvise che chiedono denaro o informazioni personali anche se la voce sembra veramente quella di un parente o un di amico.
Se sentiamo puzza di bruciato, la cosa migliore da fare per fugare i dubbi è riagganciare il telefono e chiamare subito il contatto ufficiale della persona (vera) che abbiamo riconosciuto durante la telefonata. Mai farsi prendere dal panico o dalla fretta. Esattamente su questi stati d’animo giocano i truffatori per farci agire d’impulso, senza riflettere. Può essere utile anche concordare con le persone a noi più vicine una parola in codice o una frase segreta da usare in caso di emergenza, così da smascherare velocemente i truffatori digitali.
Anche porre domande personali o fare riferimenti a dettagli privati a conoscenza solo di un vero familiare o di un amico può aiutarci a evitare la trappola. In generale è meglio non inviare troppi messaggi vocali sui social o su piattaforme pubbliche. Ogni file audio potrebbe essere usato per “allenare” i software di sintesi vocale (anche un semplice “pronto” o un “sì” possono tornare utili ai truffatori).

