video suggerito
video suggerito
Intelligenza artificiale (IA)

Il caso delle studentesse spogliate dai compagni con un’app e ricattate: “Guarda, qui sei nuda”

In Italia era successo un caso simile a Roma con il chat bot BikiniOff. A febbraio 2023 invece è stato registrato il maggior numero di porno deepfake prodotti e caricati in un mese. Secondo gli analisti il fenomeno è in crescita.
A cura di Elisabetta Rosso
16 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

"Ho visto una tua foto nuda", dice un compagno di classe a Isabel. Lei sa che quella foto non è mai stata scattata ma sa anche che esiste. Ha 14 anni, ed è il suo primo giorno di scuola dopo le vacanze, Isabel, nome inventato, è con le sue amiche quando scopre che l'intelligenza artificiale (IA) l'ha spogliata generando scatti che sono falsi ma sembrano veri. Non è l'unica, in quel momento almeno altre 20 ragazze trovano sugli smartphone dei compagni di classe le loro foto, senza vestiti. E così Almendralejo, un comune di Badajoz con circa 30.000 abitanti diventa l'epicentro di un caso di deepfake. Isabel appena torna a casa racconta tutto a sua madre: "C'è una mia foto nuda in giro. Dicono che lo hanno fatto attraverso un’applicazione di intelligenza artificiale. Ho paura. Ci sono anche ragazze che l’hanno ricevuto.”

La tecnologia deepfake sta diventando uno strumento per distruggere le donne, un caso simile era già successo in Italia con l'app BikiniOff, in grado di spogliare le ragazze a partire da una foto, e sui siti porno sono stati caricati video dove i volti di persone comuni o celebrità sono stati sovrapposti ai corpi delle pornostar, tra queste Emma Watson, Michelle Obama, e Scarlett Johansson. Come aveva spiegato a Fanpage.it Yu Chunju, artista cinese della provincia del Guandong che attraverso le sue opere analizza la disparità di genere innescata dalla tecnologia deepfake è diventata uno strumento per distruggere le donne, soprattutto nel porno:

"Ci sono moltissimi siti che sostituiscono i volti delle persone sui corpi di pornostar, è umiliante e mortificante. È ancora tutto molto vago, non ci sono leggi per proteggere le persone, e l’impatto negativo sulla società è enorme. Perché se non sei famoso vieni psicologicamente distrutto, succede anche se sei una celebrità, ma con un aggravante. I personaggi pubblici hanno una forte influenza rappresentativa sul pubblico, quindi incidono sul modo in cui viene percepita la femminilità e la donna stessa. E anche qui si riduce a desiderio sessuale di un uomo".

Cosa è successo ad Almendralejo

In poco tempo si costruisce una rete di sostegno. Le madri delle ragazze vittime della tecnologia deepfake creano un gruppo su WhatsApp per coordinarsi, come racconta la testata spagnola El Pais. Si scopre che una delle studentesse, ha 12 anni, è stata ricattata da un profilo falso. Su Instagram un ragazzo le ha chiesto dei soldi per non divulgare le sue foto nude, create grazie all'intelligenza artificiale. È un caso di Sextortion: un ricatto per ottenere denaro o favori sessuali, dove il truffatore minaccia di pubblicare materiale intimo della vittima ottenuto con l'inganno e senza il suo consenso. Ne abbiamo parlato in questo articolo dove abbiamo raccolto la testimonianza di una vittima.

Finora sono oltre 20 le ragazze che hanno denunciato, hanno tra gli 11 e i 17 anni. Gli agenti di polizia hanno identificato 10 ragazzi, 3  avrebbero prodotto le immagini e gli altri 7 le avrebbero diffuse. Non si sa ancora se le foto di nudo sono state condivise solo all’interno di chat private su WhatsApp e Telegram o se siano state caricate online. Nel secondo caso sarebbe molto più difficile riuscire a rimuovere le immagini. 

Il video di Miriam Al Adib

Il caso di Almendralejo è stato raccontato su Instagram da Miriam Al Adib, ginecologa con 136.000 follower e madre di una delle vittime. Sul suo account ha pubblicato un video: "Non sapevamo quanto fossero girate le immagini, o se fossero state caricate su siti pornografici: avevamo tante paure. Quando sei vittima di un reato, se vieni derubato, ad esempio, fai denuncia e non ti nascondi perché l’altra persona ti ha fatto del male. Ma con i reati di natura sessuale la vittima spesso prova vergogna e si sente responsabile. Quindi volevo dare quel messaggio: non è colpa vostra". 

Il caso BikiniOff in Italia

C'è stato un caso simile anche in Italia. Ad aprile infatti, in una scuola media in provincia di Roma, due ragazzi sono stati accusati di aver modificato cinque foto delle compagne di classe con l'app BikiniOff e poi averle condivise. L'app funziona come un chat bot di Telegram: è nata in Francia e poi si è diffusa in tutto il mondo nel 2022, registrando numeri record di iscritti tra i ventenni. È in grado di creare foto false ma realistiche e per accedere non serve nemmeno l’autenticazione, questo vuol dire che chiunque, anche i minorenni, possono usarla. E infatti Bikini Off è diventata popolare proprio tra i banchi di scuola, ad aprile 2023 sono state segnalate 27 infrazioni e due adolescenti di 14 anni sono stati indagati per la produzione di materiale pedopornografico. Ai carabinieri avevano detto “è solo uno scherzo”.

I numeri del porno deepfake

Nel 2019, DeepTrace, una società con sede ad Amsterdam che monitora i media sintetici online, ha rilevato che il 96% del materiale deepfake online è di natura pornografica. L’analista Genevieve Oh ha invece scoperto che il numero di video porno deepfake è quasi raddoppiato ogni anno dal 2018. Febbraio 2023 è stato il mese che ha registrato il maggior numero di porno deepfake prodotti e caricati in un mese.

16 CONDIVISIONI
495 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views