Perché non puoi cercare Taylor Swift su X: cosa è successo dopo i porno deepfake virali sul social
È scomparsa. Se nella barra di ricerca di X (fu Twitter) si digita "Taylor Swift", al suo posto compare il messaggio: "Qualcosa è andato storto. Prova a ricaricare." Non si tratta di un errore tecnico. Negli ultimi giorni infatti sulla piattaforma sono state condivise immagini porno dell'artista generate con l'intelligenza artificiale. I deepfake sono rimbalzati sui social e si sono diffusi rapidamente, nonostante gli sforzi delle piattaforme per rimuoverli. Una di queste immagini, condivisa da un utente su X, è stata vista 47 milioni di volte, prima che l'account venisse sospeso.
Le politiche delle piattaforme social vietano la condivisione di “media sintetici, manipolati o fuori contesto che possono ingannare o confondere le persone e portare a danni”. X dopo la condivisione delle immagini ha dichiarato: “I nostri team stanno rimuovendo attivamente tutte le immagini identificate e intraprendendo azioni appropriate contro gli account responsabili della loro pubblicazione”. Sembra però, che per arginare il fenomeno, abbiano dovuto persino bloccare le ricerche per il profilo di Taylor Swift. La società ha chiarito in una dichiarazione alla CNN: “Questa è un’azione temporanea fatta con molta cautela, diamo priorità alla sicurezza su questo tema”.
L'allarme della Casa Bianca
Anche la Casa Bianca ha commentato il caso Swift, la portavoce Karine Jean-Pierre ha spiegato che l'amministrazione Biden è allarmata dalle foto e che il Congresso dovrà approvare leggi contro i deepfake. "Troppo spesso", ha sottolineato la portavoce "l'applicazione di queste tecnologie senza controllo ha un impatto sproporzionato sulle donne e, purtroppo, anche sulle ragazze, tra gli obiettivi principali delle molestie online e anche degli abusi. Quindi il presidente è impegnato, come sapete, per frenare il rischio di un'AI degenerativa."
Lo stesso Biden è stato vittima della tecnologia deepfake, la scorsa settimana infatti un software ha clonato la sua voce, ed è stato lanciato un appello per non votare alle elezioni primarie del New Hampshire.
I social hanno un problema con i deepfake
La primavera delle immagini generate con l'IA è coincisa con i grandi licenziamenti delle Big tech post pandemia. X in testa. Dopo l'arrivo di Elon Musk la piattaforma si è trasformata in una terra selvaggia, il miliardario infatti ha licenziato buona parte dell‘area moderazione, e ora è ancora più difficile setacciare ed eliminare i contenuti violenti e offensivi.
Non solo, X, anche Meta ha licenziato i team che controllavano la disinformazione, le campagne coordinate di troll, e le molestie sulle sue piattaforme. “C'è stata una frattura tra moderazione dei contenuti e la governance delle piattaforme", ha spiegato a CBS News Ben Decker, che gestisce Memetica, un’agenzia di indagini digitali. "Tutte le parti interessate, le società di intelligenza artificiale, le società di social media, le autorità di regolamentazione e la società civile, devono affrontare insieme il problema, altrimenti questo tipo di contenuti continuerà a proliferare”.
I numeri dei porno creati con i software
Le immagini false in grado di manipolare il corpo e il volto sono aumentate del 550% dal 2019 al 2023. Al momento non c'è una normativa contro la condivisione o la creazione di immagini deepfake.
Nel 2019, DeepTrace, una società con sede ad Amsterdam che monitora i media sintetici online, ha rilevato che il 96% del materiale deepfake online è di natura pornografica. L’analista Genevieve Oh ha invece scoperto che il numero di video porno deepfake è quasi raddoppiato ogni anno dal 2018. Febbraio 2023 è stato il mese che ha registrato il maggior numero di porno deepfake prodotti e caricati in un mese.