Le scuole non sono pronte all’arrivo dei deepfake tra gli studenti: cosa rischiano le vittime
Sulle scrivanie degli istituti scolastici statunitensi si stanno accumulando pile di denunce per immagini di nudo create con l'intelligenza artificiale. Gli studenti scattano una foto, la caricano sull'app e con un click spogliano le compagne di classe. Le foto false, che sembrano vere, rimbalzano sui gruppi WhatsApp e diventano virali. "Le scuole non si stanno impegnando abbastanza per affrontare questo fenomeno, bisogna aggiornare le politiche scolastiche per ostacolare lo sfruttamento dell’intelligenza artificiale", ha spiegato al New York Times, Francesca Mani. È la madre di una delle vittime, Dorota, studentessa alla Westfield High School del f New Jersey. “Tutti i distretti scolastici sono alle prese con le sfide e l’impatto dell’intelligenza artificiale e delle altre tecnologie disponibili per gli studenti in qualsiasi momento e ovunque”, ha spiegato Raymond González, sovrintendente della scuola.
La tecnologia deepfake sta diventando uno strumento per distruggere le donne. Non è il primo caso, diversi studenti hanno già utilizzato le app e l'intelligenza artificiale per spogliare le loro compagne, anche in Italia. "Questo fenomeno si è verificato all'improvviso e potrebbe cogliere molti distretti scolastici impreparati e incerti sul da farsi", ha spiegato Riana Pfefferkorn, ricercatrice presso l'Osservatorio Internet di Stanford. Nonostante le denunce, infatti, sembra che le scuole non siamo pronte ad affrontare la nuova tecnologia. I porno deepfake però hanno un forte impatto psicologico e emotivo sulle vittime, soprattutto se minorenni. Non solo, è quasi impossibile garantire una rimozione completa una volta che le immagini sono state pubblicate. Immagini che segnano un prima e un dopo nella vita di una donna.
Non è la prima volta
La Beverly Vista Middle School di Beverly Hills, California, ha contattato a febbraio la polizia, dopo aver scoperto le immagini esplicite create con l'IA e diffuse da cinque studenti della scuola. Due settimane dopo, secondo i documenti distrettuali, il consiglio scolastico ha approvato l'espulsione di cinque studenti. Michael Bregy, sovrintendente del distretto scolastico di Beverly Hills, ha spiegato al New York Times che l'obiettivo comune è creare un precedente nazionale per impedire agli alunni di creare e diffondere immagini sessualmente esplicite. Sono immagini "inquietanti e violente" per le ragazze e per le loro famiglie "non possono essere tollerate".
A inizio settembre, invece, 20 ragazze di Almendralejo, un comune spagnolo di Badajoz con circa 30.000 abitanti, hanno scoperto che sugli smartphone dei compagni di classe c'erano delle loro foto fake, completamente nude. Una delle studentesse, di 12 anni, è stata anche ricattata da un profilo falso. Su Instagram un ragazzo le ha chiesto dei soldi per non divulgare le sue foto nude, create grazie all'intelligenza artificiale.
Il caso BikiniOff in Italia
In Italia sono già comparsi i primi deepfake nelle scuole. Ad aprile 2023, in una scuola media in provincia di Roma, due ragazzi sono stati accusati di aver modificato cinque foto delle compagne di classe con l'app BikiniOff e poi averle condivise. L'app è nata in Francia e si è diffusa in tutto il mondo nel 2022, registrando numeri record di iscritti tra i ventenni. Funziona in modo simile a un chatbot di Telegram e riesce a creare foto false ma realistiche di nudi artificiali.
Ad aprile dell'anno scorso a Roma sono state segnalate 27 infrazioni e due adolescenti di 14 anni sono stati indagati per la produzione di materiale pedopornografico. A inizio ottobre l'allarme è scattato anche a Treviso, dopo la segnalazione di due ragazze, una che frequentava le medie. A Latina, invece, nove ragazzi hanno creato la foto di una loro insegnante nuda. Non solo l'hanno diffusa nelle chat con i loro compagni, ma hanno caricato lo scatto su alcuni siti porno. Anche l'influencer minorenne Jennifer Serpi ha denunciato sui suoi social di aver trovato sul web delle sue immagini esplicite senza vestiti.
Lo tsunami dei porno deepfake
I numeri dei porno deepfake stanno crescendo esponenzialmente. Secondo un report del gruppo informatico Home Security Heroes la produzione immagini porno di persone reali create con l'IA, tra il 2022 e il 2023, è aumentata del 464%. L’analista Genevieve Oh ha invece scoperto che il numero di video deepfake è quasi raddoppiato ogni anno dal 2018.
"In Italia il fenomeno sta crescendo", aveva spiegato Barbara Strappato, dirigente della polizia postale, a Fanpage.it. "Le prime segnalazioni da parte delle vittime sono arrivate a marzo. La novità è aver trovato applicazioni che sfruttando l’intelligenza artificiale riescono a spogliare le persone, sono dei falsi, ma il risultato è convincente, non è come mettere il volto di qualcuno su un corpo nudo."