Crea un passaporto falso con ChatGPT e supera i controlli: il test di Borys

È bastato un prompt per creare una replica perfetta del passaporto. Borys Musielak, ricercatore polacco, ha usato ChatGPT-4o per realizzare in cinque minuti una copia del suo documento. Poi ha deciso di mettere alla prova il passaporto e l'ha caricato su diverse piattaforme finanziarie. Il falso ha superato i controlli automatizzati di verifica dell'identità. Non è il primo tentativo, in passato diversi utenti hanno cercato di creare o replicare un documento con l'intelligenza artificiale. Finora però tutti i test erano falliti a causa di evidenti difetti: impaginazioni sbagliate, caratteri incoerenti, artefatti grafici nella foto, o errori nella zona leggibile dai lettori ottici.
L'esperimento di Musielak è stato condiviso su X: "Mi ci sono voluti 5 minuti per creare una replica del mio passaporto che la maggior parte dei sistemi KYC automatizzati accetterebbe probabilmente senza battere ciglio. Le implicazioni sono ovvie: qualsiasi processo di verifica che si basi su immagini come "prova" è ormai ufficialmente obsoleto. Lo stesso vale per i selfie. Statici o video, non importa. Anche GenAI può falsificarli. ha poi aggiunto: "Il KYC basato su foto è finito. Game over. L'unica via d'uscita sono le identità verificate digitalmente, come i wallet eID obbligatori per legge dall'UE."
L'intelligenza artificiale utilizzata per le truffe
Con progressi nell’intelligenza artificiale generativa i truffatori non hanno più bisogno di competenze tecniche avanzate per creare deepfake impressionanti. Basta usare modelli linguistici di grandi dimensioni come ChatGPT, software per la generazione di immagini come Midjourney, o strumenti di clonazione vocale come ElevenLabs.
I truffatori, per esempio, potrebbero utilizzare l’intelligenza artificiale per creare carte di identità contraffatte e realizzare video realistici utilizzati per aggirare i processi di verifica. Con un documento falso potrebbero anche aprire un conto bancario o richiedere una carta di credito.
I sistemi di verifica non sono sufficienti
I sistemi di verifica tradizionali non sono sufficienti, anche quelli più sofisticati, come il riconoscimento biometrico. I truffatori possono creare facilmente identità sintetiche per ingannare i controlli o permettere l'accesso non autorizzato a dispositivi, aree sicure o informazioni sensibili. Secondo una ricerca della società di consulenza gestionale Gartner, entro il 2026 il 30% delle aziende non considererà più affidabili gli strumenti di verifica dell’identità e autenticazione che utilizzano i sistemi biometrici, a causa dell’evoluzione dei deepfake generati dall’intelligenza artificiale.
L’esperimento di Musielak solleva nuovi interrogativi sulla sicurezza delle procedure digitali di identificazione e sull’utilizzo crescente dell’intelligenza artificiale nella creazione di contenuti sintetici. In un contesto in cui sempre più servizi finanziari e digitali si basano su procedure automatizzate per l’autenticazione dell’identità, la possibilità che l’IA riesca a ingannare questi sistemi rappresenta un potenziale rischio.