Perché un gruppo di bambini sta creando immagini pedopornografiche con l’intelligenza artificiale
Basta un prompt per generare qualsiasi cosa, anche immagini pedopornografiche. E dietro la fabbrica che sforna contenuti deepfake ci sono i bambini. Il Safer Internet Centre (UKSIC) del Regno Unito ha ricevuto strane segnalazioni dalle scuole: "Sembra che gli studenti stiano creando foto e filmati indecenti con l'intelligenza artificiale". Molto probabilmente, spiega il centro alla BBC, sono spinti dalla curiosità, eppure possedere e distribuire immagini pedopornografiche è illegale. Non solo, come ha sottolineato Victoria Green, amministratrice delegata della Marie Collins Foundation, ente di beneficenza che aiuta i bambini vittime di abusi sessuali: "Le immagini potrebbero anche non essere state create per causare danni ma, una volta condivise, questo materiale potrebbe finire nelle mani sbagliate, sui siti dedicati agli abusi, o utilizzato per ricattare le vittime".
Una nuova ricerca, condotta su 1000 alunni dall’azienda tecnologica RM Technology, mostra che circa un terzo dei bambini usa l’intelligenza artificiale (IA) per guardare e creare "contenuti inappropriati" online. "L'uso regolare dell'IA da parte degli studenti non è una novità", ha spiegato Tasha Gibson, responsabile della sicurezza online presso l'azienda. "In effetti, la loro comprensione dell'intelligenza artificiale è più avanzata di quella della maggior parte degli insegnanti, si crea così un divario di conoscenze. Diventa sempre più difficile garantire la sicurezza degli alunni online e frenare l'uso improprio della tecnologia, colmare questo divario è una priorità assoluta”.
Secondo l’UKSIC è necessario adottare subito nuove misure, prima che il problema si diffonda nelle scuole. Come ha spiegato il direttore del centro, David Wright: "I giovani non sono sempre consapevoli della gravità di ciò che stanno facendo, questi comportamenti pericolosi dovrebbero essere anticipati, occorre intervenire urgentemente per evitare che il materiale creato dai ragazzi si diffonda sul web".
Le ragazze di Almendralejo
A settembre 20 ragazze spagnole tra gli 11 e i 17 anni trovano sugli smartphone dei compagni di classe le loro foto senza vestiti. Almendralejo, un comune di Badajoz con circa 30.000 abitanti, diventa l'epicentro di un caso di deepfake. Il caso è stato raccontato su Instagram da Miriam Al Adib, ginecologa con 136.000 follower e madre di una delle vittime.
Dopo la denuncia ha cominciato a ricevere messaggi di genitori che, come lei, avevano scoperto che le figlie erano state spogliate da un'app. Al canale Wales Live della BBC ha rivelato: "Centinaia di persone mi hanno scritto dicendomi che anche a loro era successa la stessa cosa e non avevano ricevuto alcun tipo sostegno". Solo il bot spagnolo ha quasi 50.000 abbonati che hanno pagato una tariffa per creare immagini di nudo con l'intelligenza artificiale.
Il caso BikiniOff in Italia
C'è stato un caso simile anche in Italia. Ad aprile infatti, in una scuola media in provincia di Roma, due ragazzi sono stati accusati di aver modificato cinque foto delle compagne di classe con l'app BikiniOff, e poi averle condivise. L'app funziona come un chat bot di Telegram: è nata in Francia e poi si è diffusa in tutto il mondo nel 2022, registrando numeri record di iscritti tra i ventenni. È in grado di creare foto false ma realistiche e per accedere non serve nemmeno l’autenticazione, questo vuol dire che chiunque, anche i minorenni, possono usarla.
Bikini Off è diventata popolare proprio tra i banchi di scuola, ad aprile 2023 sono state segnalate 27 infrazioni e due adolescenti di 14 anni sono stati indagati per la produzione di materiale pedopornografico. Ai carabinieri avevano detto “è solo uno scherzo”.