La truffa dell’intelligenza artificiale che imita la voce dei cari: “Pensavo fosse mio figlio che chiedeva aiuto”
Le tattiche sono sempre le stesse, un truffatore veste i panni dell’amico, parente, amante in difficoltà e chiede alla vittima di versare somme di denaro. Il problema è che ora c’è l’intelligenza artificiale, in grado di imitare la voce, il timbro, e il tono di chiunque ascoltando un audio di pochi secondi, e così le truffe diventano estremamente credibili.
Per questo i genitori di Benjamin Perkin hanno versato 21.000 dollari sul conto di un presunto avvocato. Li aveva chiamati in affanno dicendo che il figlio aveva ucciso un diplomatico americano in un incidente d’auto, come spiega il Washington Post. Un caso strano sì, ma a convincerli era stata proprio la voce di Benjamin che dall’altra parte del telefono implorava il loro aiuto. Così hanno prosciugato in fretta i loro fondi per coprire le spese legali dettate al telefono dall’avvocato. Era solo una truffa, l’hanno capito quando poche ore dopo è arrivata una chiamata del figlio che voleva sapere come stavano. Ma era troppo tardi, "i soldi sono finiti. Non c'è assicurazione, o un modo per recuperarli". I Perkins sono solo le ultime vittime di un fenomeno più diffuso. Tanti telefoni sono squillati, e tutti agli agenti di polizia dicono: “Pensavamo fossero i nostri cari a chiederci aiuto, era la loro voce”.
Le truffe telefoniche con l'intelligenza artificiale
Secondo i dati della Federal Trade Commission, negli Stati Uniti, durante il 2022, sono state oltre 36.000 le segnalazioni di persone truffate da qualcuno che finge di essere un amico o un familiare. L’inganno funziona meglio al telefono e infatti sono 5.100 i casi di truffa via chiamata, e i criminali sono riusciti a estorcere 11 milioni di dollari. Ora con l’intelligenza artificiale è in grado di replicare in modo fedele la voce delle persone, usando un campione audio di pochi secondi, diventa ancora più semplice ingannare le vittime. Grazie a strumenti online facilmente accessibili ed economici si può ricostruire la voce di qualcuno in modo fedele, tanto che nemmeno i parenti riescono a riconoscere il fake. A disorientare c’è sempre la paura, il vecchio trucco, che fa abbassare la guardia e agire d’impulso. La richiesta di aiuto infatti è l’escamotage perfetto per innescare l’angoscia e mettere a tacere possibili dubbi.
Come spesso succede le nuove tecnologie smarcano tutti, e infatti gli esperti hanno spiegato al Washington Post che i regolatori federali, le forze dell'ordine e i tribunali non sono attrezzati per frenare questo tipo di truffe. È difficile rintracciare le chiamate e i fondi dei truffatori, ci sono pochi precedenti in tribunale, quindi non è nemmeno chiaro se la responsabilità cada anche sulle aziende che rendono disponibili determinati strumenti. Will Maxson, assistente alla direzione presso la divisione delle pratiche di marketing della FTC, ha spiegato che rintracciare i truffatori vocali può essere "particolarmente difficile" perché potrebbero utilizzare un telefono con sede in qualsiasi parte del mondo, rendendo quasi impossibile persino identificare quale agenzia abbia giurisdizione su un caso particolare.
I nuovi programmi di sintesi vocale
"È terrificante", ha detto Hany Farid, professore di digital forensics presso l'Università della California a Berkeley. "È una sorta di tempesta perfetta con tutti gli ingredienti necessari per creare il caos". L’intelligenza artificiale può ricostruire timbro, tono, voce, cadenza, “il software di generazione vocale AI analizza ciò che rende unica la voce di una persona, inclusi età, sesso e accento, e cerca in un vasto database di voci per trovarne di simili e prevedere modelli, ha affermato Farid. "Due anni fa, anche un anno fa, avevi bisogno di molto audio per clonare la voce di una persona", ha detto Farid. "Ora… se hai una pagina Facebook… o se hai registrato un TikTok e la tua voce è lì dentro per 30 secondi, le persone possono clonare la tua voce."
Sul mercato sono disponibili già diversi strumenti di sintesi vocale AI, tra questi ElevenLabs, fondata nel 2022, che presenta sia una versione gratuita, sia a pagamento (che può variare dai 5 ai 330 dollari al mese). L’azienda è già stata criticata. A gennaio infatti su 4Chan, un utente ha pubblicato una clip di Emma Watson che legge un passaggio di Mein Kampf. Poi la voce di Ben Shapiro che lancia commenti razzisti su Alexandria Ocasio-Cortez, e Rick Sanchez della serie animata Rick & Morty che dice: “Picchierò mia moglie Morty. Picchierò la mia fottuta moglie Morty. La picchierò a morte, Morty".
Justin Roiland, che dà la voce a Sanchez, è comparso di recente in tribunale per un'udienza preliminare con l'accusa di reato di violenza domestica. Le clip spaziano dall'innocuo, al violento, al transfobico, all'omofobo, al razzista, dentro il frullatore fake sono finiti anche personaggi di anime e di videogiochi. ElevenLabs ha risposto su Twitter spiegando che stava esplorando ulteriori misure di sicurezza.