“Ogni giorno cerchiamo i video di abusi su minori: vogliamo cancellarli dal web”: la storia di Mabel

Ogni giorno Mabel apre il computer, cerca video pedopornografici e quando li torva invia una segnalazione. È una moderatrice di contenuti per l'Internet Watch Foundation (IWF), il suo obiettivo è rendere internet un posto migliore, ma per farlo deve guardare il lato peggiore del web. "Sono contenuti orribili che nessuno dovrebbe creare o vendere, tutte le vittime sono minorenni, è abominevole", ha raccontato Mabel (nome di fantasia) alla Bbc. È un ex agente di polizia, poi ha deciso di diventare una moderatrice "l'ho fatto per tutelare la mia famiglia, ho figli e nipoti e voglio solo rendere Internet un posto più sicuro per loro."
Mabel individua e segnala gli utenti che pubblicano o vendono contenuti pedopornografici. "È un lavoro strano perché fai del bene e allo stesso tempo punisci le persone malvagie. Quando rimuovo un'immagine impedisco fisicamente l'accesso a quei contenuti terribili. Collaboriamo con le forze dell'ordine di tutto il mondo affinché possano avviare un'indagine e bloccare i criminali".
Cosa fa un moderatore di contenuti
Non è un lavoro semplice quello dei moderatori di contenuti. Devono infatti setacciare il web per ripulirlo dagli orrori. "Abbiamo a disposizione distrazioni per staccare dal lavoro, come un biliardo o una sala relax. Vediamo cose terribili e non è semplice, ma sappiamo di star facendo la cosa giusta", ha spiegato Mabel.
"Spero davvero che tutti capiscano che questo è un problema e che tutti facciano la loro parte per impedire la circolazione di immagini pedopornografiche. Vorrei che il mio lavoro non esistesse, ma finché ci sarà un universo digitale ci sarà bisogno di lavori come il mio. Quando racconto alla gente cosa faccio, spesso non riesce a credere che questo lavoro esista davvero."
Il nuovo mercato dell'intelligenza artificiale
Grazie al lavoro dell'Internet Watch Foundation (IWF) sono state rimosse quasi 300.000 pagine web, "quest'anno sono state bloccate anche moltissime immagini di abusi sessuali su minori generate dall'intelligenza artificiale quasi cinque volte superiore rispetto all'anno scorso", ha spiegato l'IWF. Come aveva spiegato Ernesto Caffo, presidente della Fondazione Telefono Azzurro: "La pervasività degli strumenti digitali costituisce un acceleratore dei fenomeni di abuso sessuale".
Non è solo un problema di numeri, i contenuti dell'IA infatti sono estremamente verosimili, sembrano fotografie di abusi, indistinguibili da quelli reali. Basta un prompt ben scritto per generare qualsiasi cosa. In realtà i software dovrebbero bloccare la creazione di immagini pedopornografiche realizzate con l'IA, eppure aggirare i divieti è ancora troppo semplice. E infatti l'IA ha creato un mercato parallelo per le immagini o i video di abusi su minori.