La truffa del falso direttore finanziario: perde 25 milioni di dollari per colpa di un deepfake
Apre la videochiamata da Hong Kong, dall'altra parte dello schermo compaiono i suoi colleghi in collegamento da Londra, c'è anche il direttore finanziario della società. Sembra una normale videoconferenza, e invece è una truffa da 25 milioni di dollari. Tutto inizia con una strana mail. Il dipendente della multinazionale (non è stato rivelato né il suo nome, né quello dell'azienda), apre la posta e legge il messaggio del direttore finanziario, chiede una transazione segreta. Subito si insospettisce, crede sia una mail di phishing, ma quando accede alla videochiamata si tranquillizza. Sullo schermo compaiono i suoi colleghi e lo stesso direttore che gli chiede di effettuare 15 trasferimenti su cinque conti bancari, per un totale di 25 milioni di dollari.
"Abbiamo scoperto che tutti i partecipanti alla conferenza erano falsi", ha spiegato il sovrintendente Baron Chan Shun-ching all'emittente pubblica RTHK. I volti dei truffatori erano stati modificati utilizzando la tecnologia deepfake. È diventata un'arma efficace per le truffe. Soprattutto ora che, con l'integrazione dell'intelligenza artificiale è diventata ancora più semplice da utilizzare. Non solo, i software riescono a generare immagini o video finti che sembrano veri. "Credo che il truffatore abbia scaricato i video in anticipo e poi abbia utilizzato l'intelligenza artificiale per aggiungere voci false da utilizzare nella videoconferenza", ha spiegato Chan.
Sempre più criminali usano i deepfake
Durante la conferenza stampa, la polizia di Hong Kong ha dichiarato che nell'ultimo periodo sono aumentati gli arresti legati all'utilizzo di deepfake. Chan ha spiegato che otto carte d’identità rubate a Hong Kong (segnalate come smarrite dai loro proprietari), sono state utilizzate per effettuare 90 richieste di prestito e 54 registrazioni di conti bancari tra luglio e settembre del 2023. Non solo, secondo la polizia, sempre più spesso i deepfake sono stati utilizzati per ingannare i programmi di riconoscimento facciale.
Una nuova ricerca della società di consulenza gestionale Gartner mostra che entro il 2026 il 30% delle aziende non considererà più affidabili gli strumenti di verifica dell’identità e autenticazione che utilizzano i sistemi biometrici, a causa dell’evoluzione dei deepfake generati dall’intelligenza artificiale.
I porno artificiali creati con l'IA
I deepfake sono diventati anche un'arma per distruggere le donne. A gennaio sono state pubblicate sui social le finte immagini porno di Taylor Swift. Una di queste, condivisa da un utente su X (fu Twitter), è stata vista 47 milioni di volte, prima che l'account venisse sospeso. Il caso Swift non è isolato. Anzi. FaceMega, un'app che sostituisce facce e corpi utilizzando l'intelligenza artificiale, aveva lanciato a marzo una campagna pubblicitaria provocatoria. Aveva caricato 127 video di Emma Watson e 74 di Scarlett Johansson in atteggiamenti provocatori sui social.
Era anche apparso su Reddit un porno deepfake di Michelle Obama, che mostrava l'ex first lady in una camera a luci rosse. Il deepfake è diventato uno strumento, usato per colpire donne di potere, politiche, attiviste, intellettuali, artiste, per screditarle, intimidirle, e umiliarle.
Spogliate con un'app e ricattate
Non solo. La tecnologia deepfake viene anche utilizzati per "spogliare" e ricattare le donne. Le foto dei finti nudi vengono generate con software o app, cominciano a essere condivise sui canali Telegram, WhatsApp, e poi la vittima viene contattata in modo anonimo, e chiedono una somma di denaro per non pubblicare le immagini create con l'IA. "Si tratta di una estorsione sessuale, potenziata con l'intelligenza artificiale che permette di creare foto realistiche", aveva spiegato a Fanpage.it Barbara Strappato, Dirigente della polizia postale.
Nei casi di sextortion infatti la vittima viene ricattata per ottenere denaro o favori sessuali, il truffatore minaccia di pubblicare materiale intimo della vittima ottenuto con l'inganno e senza il suo consenso. In questo caso, invece, il contenuto intimo non è una foto rubata o inviata per sbaglio, ma l'immagine di un corpo nudo creato con l'IA, dal nulla. E questo espone chiunque, al di là di ogni possibile prevenzione. Il rischio è di amplificare anche i casi di revenge porn e la circolazione di materiali pedopornografici.