Scoperta l’IA che ha creato le foto porno di Taylor Swift: “Sistema aggiornato affinché non ricapiti”
È bastato storpiare una parola per generare le immagini porno di Taylor Swift. L'artista non ha posato nuda e nemmeno girato un filmino hard, eppure sui social le foto sono diventate virali. Una di queste, condivisa da un utente su X (fu Twitter), è stata vista 47 milioni di volte, prima che l'account venisse sospeso. Le immagini sono solo l'ultima deriva della tecnologia deepfake. Il sito 404 Media ha scoperto che i contenuti pornografici sono stati pubblicati per la prima volta su un gruppo Telegram, utilizzato dagli utenti per condividere immagini di nudo deepfake. Secondo il report per realizzarle hanno utilizzato Microsoft Designer, l'intelligenza artificiale capace di creare immagini partendo da un prompt. In realtà il software impedisce di creare contenuti espliciti, e si blocca al comando "Taylor Swift nuda". Eppure ingannare le macchine è abbastanza semplice. Basta storpiare il nome o utilizzare termini allusivi.
Microsoft è corsa ai ripari aggiornando Desiger. "Ci stiamo impegnano per fornire un'esperienza sicura e rispettosa per tutti", ha spiegato Sarah Bird, responsabile dell'area intelligenza artificiale dell'azienda. "Stiamo continuando a indagare su queste immagini e abbiamo rafforzato i nostri sistemi di sicurezza esistenti per impedire l’uso improprio dei nostri servizi e non contribuire alla generazione di queste immagini”.
Le immagini porno virali su X
Se nella barra di ricerca di X (fu Twitter) si digita "Taylor Swift", al suo posto compare il messaggio: "Qualcosa è andato storto. Prova a ricaricare". Non è un problema tecnico. La piattaforma per arginare il danno ha deciso di bloccare le ricerche. “Questa è un’azione temporanea fatta con molta cautela, diamo priorità alla sicurezza su questo tema”, ha spiegato la società in una dichiarazione alla CNN.
In realtà le politiche delle piattaforme social vietano la condivisione di “media sintetici, manipolati o fuori contesto che possono ingannare o confondere le persone e portare a danni”. Dopo la condivisione delle immagini X ha dichiarato: “I nostri team stanno rimuovendo attivamente tutte le immagini identificate e intraprendendo azioni appropriate contro gli account responsabili della loro pubblicazione”.
L'allarme della Casa Bianca
Anche la Casa Bianca ha commentato il caso Swift, la portavoce Karine Jean-Pierre ha spiegato che l'amministrazione Biden è allarmata dalle foto e che il Congresso dovrà approvare leggi contro i deepfake. "Troppo spesso", ha sottolineato la portavoce "l'applicazione di queste tecnologie senza controllo ha un impatto sproporzionato sulle donne e, purtroppo, anche sulle ragazze, tra gli obiettivi principali delle molestie online e anche degli abusi. Quindi il presidente è impegnato, come sapete, per frenare il rischio di un'AI degenerativa."
Il commento di Microsoft
Dopo la condivisione delle immagini deepfake, il portavoce di Microsoft ha commentato il caso: "Il codice di condotta vieta l'uso dei nostri strumenti per la creazione di contenuti intimi per adulti o non consensuali e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre politiche potrebbe comportare la perdita dell'accesso al servizio".
Ha poi aggiunto: "Abbiamo team che lavorano proprio su un monitoraggio del genere, in linea con i principi di intelligenza artificiale responsabile, tra cui il filtraggio dei contenuti e il rilevamento degli abusi per creare un ambiente più sicuro per gli utenti".