Gli incubi di Daniel, moderatore di Facebook: “Pagato due dollari all’ora per vedere l’orrore dei social”
Vicino alle baraccopoli, nella periferia di Nairobi, Kenya, c’è un edificio a vetri con un’insegna gialla e nera. “Sama source”, c’è scritto sopra. Dentro, oltre 200 dipendenti rimangono per ore seduti davanti ai loro schermi che proiettano suicidi, squartamenti, stupri, abusi su minori. È vietato chiudere gli occhi, devono guardare tutto, fino alla fine. Controllare se e quanto sangue c’è nel video, ed etichettare in modo accurato ogni tipo di atrocità. Tutto questo per meno di due dollari l’ora.
“Quando ho letto l’annuncio di lavoro di Meta non avevo idea che sarei diventato un moderatore di contenuti, ero appena laureato e volevo aiutare la mia famiglia, inviare un po’ di soldi a casa, e così ho accettato". A parlare è Daniel Motaung, 32 anni, ex moderatore. Nel 2019 decide di inviare la sua candidatura a Sama, che aveva appena vinto un contratto per fornire servizi di moderazione dei contenuti per i mercati dell'Africa subsahariana di Facebook.
Lo assumono, lascia casa, si trasferisce in Kenya. E poi entra nella fabbrica degli orrori. “Lavoravamo notte e giorno, negli uffici c’era gente che sveniva, i miei colleghi per dimenticare quello che vedevamo assumevano droghe. Nessuno riusciva più a dormire” racconta Motaung a Fanpage.it. Decide di creare un sindacato per chiedere più tutele e diritti, quando presenta domanda all’azienda viene licenziato, accusato di aver messo a rischio il rapporto tra Sama e Facebook.
Assumere moderatori in Kenya a Meta conviene, perché il costo della manodopera è bassissimo. Non è un caso che siano spuntati centri di moderazione che ricalcano i vecchi assi di potere coloniale. Lontano dall’Europa, dagli Stati Uniti, e radicati nei Paesi in via di sviluppo.
Partiamo dall’inizio.
Mi ero laureato da poco, era il 2019, e ho visto questo annuncio di Sama. Volevo aiutare la mia famiglia, non ho capito bene in cosa consistesse il lavoro. Non mi aspettavo che sarei diventato un moderatore di contenuti, e che dal quel momento niente sarebbe stato più lo stesso.
Immagino che tu l'abbia scoperto una volta arrivato.
Esatto, ho capito che il mio lavoro sarebbe stato guardare e per ore i contenuti più atroci che venivano pubblicati su Facebook e bloccarli.
Com’era l’ambiente di lavoro?
Terribile. Ci sfruttavano, volevano prendere tutto quello che potevano, dandoci il meno possibile. Era anche un ambiente non sicuro, senza protezioni. E se provavi a lamentarti non finivi bene.
Spiegati meglio.
Quando ho deciso di fondare un sindacato per chiedere delle condizioni migliori sul posto di lavoro sono stato licenziato, mi hanno detto che avevo costretto i miei colleghi a firmare e che avevo messo a rischio i rapporti tra Sama e Meta.
Ti ricordi il primo video che hai visto?
Non me lo dimenticherò mai. C’era una donna con una maglietta gialla e dei jeans, degli short. Accanto a lei un uomo con il passamontagna, a un certo punto lui la decapita. Perché? Non lo so, me lo chiedo ancora adesso.
Difficile.
Molto, e poi sono arrivati gli altri, i sacrifici umani, le sparatorie, le persone che si buttano dall’ultimo piano o che venivano uccise con un macete. Era all’ordine del giorno veder comparire sullo schermo arti amputati oppure ossa spezzate a metà. Ed era il meno…
Hai avuto delle ricadute psicologiche?
Ho subito un disturbo da stress post traumatico. Non riuscivo più a dormire di notte, quando mi addormentavo arrivavano gli incubi, mi svegliavo all’improvviso sudato, spaventato.
Cosa sognavi?
I video, solo che spesso ero il protagonista, diventavo la vittima. Mi capitava anche di avere dei flashback da sveglio. Magari ero seduto, non stavo facendo nulla ed ecco che quelle immagini tornavano.
E come ha inciso questo sulla tua vita?
Ho cominciato a essere ossessionato dalla morte, la vedevo ovunque, sentivo di poter morire in ogni modo, in ogni secondo. E infatti non uscivo più, il mondo esterno era diventato pericoloso. Ogni volta che qualcuno si avvicinava pensavo “adesso tira fuori una pistola e mi spara”.
E ora?
Ho ancora delle ricadute. Non è semplice. Mi hanno diagnosticato appunto il disturbo da stress post-traumatico ed episodi depressivi. Alcuni giorni va tutto bene, altri mi sale l’ansia e rivivo tutto quanto.
I tuoi colleghi invece?
Il mio non è un caso eccezionale, il disturbo da stress post traumatico era diffuso. Molti miei colleghi hanno cominciato ad assumere droghe. Molti fumavano erba per dimenticare i video che vedevano tutto il giorno. Io stesso bevevo per non pensare. E sai, a un certo punto volevi prendere qualsiasi cosa riuscisse a scacciare quelle scene dalla testa e darti un po’ di pace. Molti svenivano durante il turno di lavoro, mi ricordo di cinque colleghi che sono finiti in ospedale.
Ma avevate un supporto psicologico?
No, di nessun tipo. Ci faceva fare le “sessioni di benessere”, praticamente dei giochi di squadra, e delle chiacchierate con questi consulenti del benessere, che però non erano psicologi qualificati o terapisti. Erano più degli intrattenitori.
Cosa facevate in queste sessioni benessere?
Ma come ti dicevo giochi, esperienze di team building. Nulla che c’entri davvero con una seduta che possa aiutare ad affrontare i traumi di un lavoro del genere. L'aiuto di cui avevamo veramente bisogno non lo abbiamo ottenuto.
Quanto vi pagavano?
C’erano due categorie di stipendi. Gli stranieri ricevevano circa 60.000 scellini keniani (528 dollari), che includevano un bonus mensile per il trasferimento. Considerando le tasse equivalgono a circa 440 dollari al mese, quindi più o meno 2 dollari l’ora. I dipendenti kenioti, a cui non viene pagato il bonus di trasferimento, invece erano pagati 1,45 dollari l’ora.
E quante ore lavorate?
Avevamo una settimana lavorativa di 45 ore. Quindi circa 9 ore al giorno, in realtà però dovevamo smaltire tutta la coda di video prima di finire. Non solo, il problema è che i contenuti vanno moderati 24 ore su 24 e i turni erano molto sballati, ci capitava di dover lavorare un’intera notte e poi di nuovo di giorno. Oppure settimane solo di giorno o solo di notte.
Che tipo di contenuti moderavi, avevi un'area di competenza?
È interessante questa domanda, sei la prima a farmela e sono contento di risponderti perché ho sempre pensato che questo fosse uno dei problemi principali. Non ci sono specialisti, noi dovevamo moderare un po’ di tutto. Incitamento all’odio, violenze su minori, abusi, suicidi. E invece sarebbe molto più giusto dividere per aree di competenze, si riuscirebbe a lavorare meglio.
E per quanto riguarda la lingua invece?
Stesso problema. Sono stato assunto per moderare contenuti in lingua Zulu, ma in realtà poi sono stato costretto a moderare in molti altri dialetti africani, e questo è un problema, perché spesso è difficile cogliere il significato, anche metaforico, di certe frasi, di certi termini. E infatti proprio per questo motivo a volte non bloccavamo cose che andavano bloccate.
Mi racconti dell'Alleanza, il sindacato che hai fondato?
È un argomento molto triste e delicato per me. In questo momento, mentre stiamo parlando, non c’è nessun sindacato. È fallito, sto provando a crearne un altro, ma è molto difficile, perché Facebook ha molto controllo, e cercherà di averlo sempre, Ora l'obiettivo è farlo diventare un movimento globale per i moderatori di contenuti, chiamato Safe Content Advocacy Network (SCAN), stiamo cercando di trasformare l'ecosistema di moderazione dei contenuti innanzitutto professionalizzandolo e creando una comunità di supporto per i moderatori.
Nella tua causa legale hai accusato Meta di traffico di esseri umani. Puoi spiegarmi meglio?
Certo, quando ho risposto all’annuncio di lavoro non avevo la minima idea che sarei andato a fare questo lavoro. Mi sono trasferito dal Sud Africa a Nairobi per lavorare per Sama, ero appena laureato e volevo aiutare la mia famiglia.
E cosa c’era scritto nell’annuncio?
Era molto generico, progettato per ingannare i candidati ignari e farli diventare inconsapevolmente moderatori di contenuti di Facebook. E sono finiti dopo pochi mesi a soffrire per i disturbi da stress post traumatico. Secondo la legge keniota questo equivale al traffico di esseri umani.
E come sta andando la tua battaglia legale?
È lunga e difficile, d’altronde Facebook è un’azienda multimiliardaria che sta facendo di tutto per frenare questo processo. Stiamo ancora trattando questioni preliminari. E non stiamo nemmeno parlando delle accuse avanzate riguardo al possibile traffico di esseri umani e alle altre questioni sollevate nella petizione. E poi c’è un altro problema.
Quale?
Che Facebook non è un’azienda keniota e quindi non è soggetta alla legge del Paese.
La domanda che mi faccio è: ma se i moderatori di contenuti sono traumatizzati o soffrono di disturbi a causa delle condizioni in cui vivono, come fanno a fare bene il loro lavoro?
Appunto, e considera che è molto importante farlo bene, perché i moderatori bloccano i contenuti violenti, pericolosi, se non stanno bene non possono lavorare bene e si crea un sistema difettoso. Se sono traumatizzato, scosso, non modererò i contenuti in modo corretto. Prendersi cura dei lavoratori di questo settore è un modo per tenere al sicuro anche gli utenti,
In tutto questo quale potrebbe essere il ruolo dell’intelligenza artificiale?
Non può sostituire gli esseri umani, ci sarebbero problemi a livello etico. Per questo è fondamentale risolvere il problema dei moderatori umani.
Quindi cosa si dovrebbe fare adesso?
Non è semplice ma le cose devono cambiare, Per prima cosa bisogna riunire i lavoratori e fare in modo che i social media si siedano a un tavolo di discussione per cambiare la modalità di lavoro. Non è semplice, perché per le aziende ovviamente è economicamente sconveniente.
Quante sono le possibilità che questo succeda?
Poche, servono finanziamenti, e non è facile. Dobbiamo combattere, altrimenti la maggior parte di noi potrà solo dire che non ha ottenuto nulla nella vita tranne la sofferenza e il dolore a causa della moderazione dei contenuti.