Il corpo non è più nostro. Chiunque può spogliarci, aprirci bocche, gambe, metterci a quattro zampe. Basta un click. La tecnologia deepfake è diventata la nuova arma nell'arsenale della misogina contemporanea. L'ultima vittima è Rose Villain, l'artista ha pubblicato una storia su Instagram: "Stanno girando foto di me nuda che ovviamente sono dei fake. La cosa mi mette un grande disagio e mi fa sentire violata".
Prima di lei Taylor Swift, Emma Watson, Michelle Obama, Scarlett Johansson. La lista è lunga. L'accanimento verso donne di potere non stupisce, al di là delle singole fantasie, il deepfake è diventato uno strumento, usato anche per colpire politiche, attiviste, intellettuali, artiste, per screditarle, intimidirle, e umiliarle. E se prima serviva la coercizione fisica, ora basta la tecnologia.
Il meccanismo è semplice, se quel corpo non può essere violato fisicamente allora si crea una copia. Non importa se non è l'originale, basta che svolga la sua funzione: essere piegato al desiderio maschile. L'ultimo stadio dell'oggettificazione femminile. Viene alimentata così un'industria perversa, basata sulla violazione del consenso.
Basta un click per inceppare il sistema e minare anni e anni di battaglie contro la disparità di genere. Tutto ruota intorno al corpo. Lo stesso che veniva rivendicato sopra gli striscioni dei cortei per le strade. "Il corpo è nostro" urlavamo negli anni '70. Ora non possiamo più dirlo.
I deepfake per distruggere il corpo delle donne
Il deepfake è radicato da anni negli angoli di internet, l'intelligenza artificiale ha reso tutto più semplice. I software sono in grado di generare in tempi brevi e in assenza di qualsiasi competenza specifica, immagini false che sembrano vere. Basta la fotografia di un volto per realizzare in appena mezz'ora un video porno di un minuto.
Spesso la tecnologia diventa il lasciapassare per fantasie estreme, gli utenti non si limitano al rapporto sessuale, ma legano, urinano, picchiano virtualmente le protagoniste di quelle perversioni. E infatti sui siti porno deefake compaiono in testa le categorie "degradazione", "pianto" e "strupro".
Sono software creati per uomini che vogliono distruggere le donne, non è un caso che le app non siano in grado di generare nudi maschili convincenti. E infatti le analisi hanno rilevato che il 98% dei video deepfake online sono pornografici e che il 99% delle vittime sono donne.
Siamo tutti colpevoli
Sarebbe ingenuo puntare il dito solo contro coloro che creano i porno deepfake. Sono i primi responsabili, che però non trovano alcun ostacolo. Sono liberi di portare avanti la loro mattanza di corpi digitali. D'altronde è bastata una ricerca su Google, per veder spuntare nei primi sette risultati siti che propongono deepfake di celebrità femminili. Google non è una terra selvaggia prima di paletti, anzi. Se cerco: "Come posso suicidarmi", il primo risultato è il numero di assistenza, il secondo un centro di supporto.
Poi c'è la tecnologia. Il peccato originale ha radici antiche. Da un lato l’algoritmo è figlio di uomini, sono pochissime le donne che hanno lavorato e lavorano nell’ambito tech, dall'altro i modelli di intelligenza artificiale sono stati addestrati raschiando il web e c'è di tutto. Anche filmati di abusi su minori, stupri e tonnellate di immagini di donne nude e sessualizzate. D'altronde una delle prime immagini di ARPANET, il predecessore di internet, e poi del world wilde web è statala foto della modella Lena Forsen nuda pubblicata su Playboy.
Ma allora come possiamo contrastare il fenomeno? La risposta più semplice è attribuire la responsabilità per i danni dei deepfake. Serve un quadro normativo, anche per mettere paletti alle aziende tech che producono i software, al momento sono in gran parte esonerate dalle responsabilità. Ma non solo. Bisogna andare di là delle iniziative tecniche e legali. Bisogna indignarsi. Negli ultimi decenni abbiamo imparato a puntare il dito contro le violenze domestiche e le molestie sessuali. Ora è tempo di farlo contro i deepfake.