Cosa fare se si è vittime di un deepfake: i tre passaggi fondamentali
Il volto è tuo il corpo no. I deepfake stanno creando una nuova frontiera, quella reale sintetico, modificano, manipolano e distorcono i corpi. Spesso le vittime sono donne. E infatti le analisi hanno rilevato che il 98% dei video fake online sono pornografici e che il 99% delle vittime sono donne. L'ultima vittima è stata Rose Villain. Ma la lista è già troppo lunga. A fine gennaio le immagini porno di Taylor Swift generate con l’intelligenza artificiale (IA) sono diventate virali sui social, una di queste è stata vista 47 milioni di volte su X (fu Twitter), prima che l'account venisse sospeso. Non solo, sono state create immagini porno di Giorgia Meloni, Michelle Obama, Scarlett Johansson, ed Emma Watson. Sono diventate vittime del deepfake anche le ragazze minorenni di una scuola italiana, i compagni di classe le hanno spogliate con un'app.
Da tempo i deepfake resistono negli angoli di internet, ma con l'introduzione dell'intelligenza artificiale è diventato ancora più semplice e veloce creare repliche digitali estremamente verosimili. Per questo è necessario imparare a riconoscere le immagini manipolate e saper come muoversi se si diventa vittime di deepfake. Al momento infatti non c'è un quadro normativo solido e le filigrane per marchiare i contenuti fake non stanno al passo con l'avanzamento della tecnologia.
Cosa fare se si è vittima di un deepfake
Per prima cosa richiedere la rimozione dei contenuti. Le principali piattaforme, come Google e Facebook, offrono procedure specifiche per la rimozione di contenuti. Queste procedure possono variare in termini di tempistiche e requisiti. Nel caso di un porno deepfake, o un deepnude, l'utente che ha caricato il materiale può essere segnalato per diffusione non autorizzata di video o foto online che ritraggono una persona. Si tratta di violazione della privacy e dell'immagine personale.
Non solo è necessario anche documentare l'abuso, acquisire quindi le prove nel caso fosse necessaria un'azione legale. Scattare quindi screenshot delle immagini modificate, delle piattaforme dove sono state caricate, e delle richieste di rimozione presentate. Infine è necessario sporgere subito denuncia alla polizia postale.
Come proteggersi dai deepfake
Può succedere a tutti, il deepfake non è un fenomeno semplice da arginare ma ci sono delle buone pratiche che se messe in atto possono tutelare gli utenti, tra queste:
- Evitare di condividere immagini o video personali sui social media. Spesso i malintenzionati entrano sulle piattaforme a caccia di materiale per i deepfake. Nel caso si volessero o dovessero condividere foto o video, il consiglio è di impostare il profilo privato in modo tale che possano vederle solo un gruppo di persone selezionato
- Rafforzare la sicurezza dei propri account online utilizzando password complesse e uniche. In questo modo sarà più difficile per gli hacker ottenere l'accesso non autorizzato alle immagini e ai video personali
- Evitare di utilizzare app o filtri che utilizzano la nostra immagine
- Scegliere un buon programma antivirus per proteggere il proprio computer da malware che potrebbero essere utilizzati per accedere ai propri contenuti multimediali.
- Assicurarsi che i metadati incorporati nei file indichino i dettagli di proprietà, la data di creazione e altre informazioni rilevanti che potrebbero servire come prova in caso di controversie
I numeri del porno falsi creati con l'IA
Al momento manca un quadro normativo in grado di arginare un fenomeno in crescita. Eppure secondo un report del gruppo informatico Home Security Heroes la produzione di deepfake porno tra il 2022 e il 2023 è aumentata del 464%. Gli Stati Uniti hanno provato a creare una task force federale per esaminare la tecnologia deepfake, ma poi è stata bloccata. Yvette D. Clarke, politica statunitense, aveva proposto già nel 2019 un disegno di legge, e poi di nuovo nel 2021, ora ha detto al New York Times che sta pianificato di reintrodurre il disegno di legge quest'anno.