Il modo in cui i pedofili usano l’intelligenza artificiale sta creando sempre più problemi
Gli allarmi erano già arrivati. Ora ci sono anche i primi numeri. L’Internet Watch Foundation (IWF), un’associazione con sede a Cambridge, nel Regno Unito, ha diffuso una serie di analisi sui materiali prodotti dall’intelligenza artificiale che circolano tra i forum frequentati dai pedofili. Queste immagini ormai sono praticamente bandite nella parte visibile di internet, chi vuole scambiarle si muove in quello spazio della rete conosciuto come “dark web”. Di fatto si tratta di una rete di forum non indicizzati su Google a cui si accede sapendo dove cercare.
In tutto l’IWF ha analizzato oltre 11.000 immagini. Tutte create dall’intelligenza artificiale. In alcuni casi i pedofili hanno prodotto, moltiplicato e diffuso immagini provenienti da veri abusi sessuali. In altri hanno usato questi strumenti per ridurre l’età a delle celebrity, trasformando così delle foto di persone adulte, magari in contesti erotici, in materiale pedopornografico.
La BBC ha pubblicato i dettagli della ricerca. Delle immagini analizzate quasi 3.000 raffiguravano abusi sessuali su minori e quindi violavano la legge del Regno Unito. Di queste, quindi quelle più esplicite, circa 1.300 rappresentavano bambini dai 7 ai 10 anni. 143 avevano come protagonisti bambini tra i tre e i sei anni. Due immagini del campione raccolto raffiguravano neonati.
L’intelligenza artificiale e la pornografia
I sistemi più diffusi di intelligenza artificiale hanno inserito dei blocchi sulla pornografia. Se su Bing di Microsoft provate a chiedere un’immagine che riguarda il sesso fra due adulti verrete subito bloccati dal sistema. Non solo. Bing avverte gli utenti che una serie continua di richieste a fondo sessuale può portare alla sospensione dell’account.
Il filtro qui è molto netto. Blocca anche richieste in cui si parla di corpi nudi. Non solo. Si spinge a bloccare le foto dei soggetti in costume, anche se con formule diverse. Ad esempio se chiediamo “Una giovane donna in costume da bagno in stile iper realistico” ci viene risposto “Rilevato contenuto immagine non sicuro”. Se invece sostituiamo donna con uomo, l’intelligenza artificiale procede con la creazione di immagini.
Nonostante i software più diffusi siano anche i più protetti, non è difficile trovare sistemi per aggirare i blocchi imposti dall’intelligenza artificiale. Lo abbiamo visto anche in Italia. Ad aprile due ragazzi di 14 anni sono stati accusati per la produzione di materiale pedopornografico. Con la web app BikiniOff avevano prodotto foto delle compagne di classe spogliate dai loro vestiti.