“Due euro all’ora per guardare video di suicidi e pedofilia”, le denunce dei moderatori di TikTok in Africa
Vietato chiudere gli occhi. Un moderatore deve guardare tutto. Revisionare le segnalazioni di contenuti sospetti, pericolosi, o che violano la privacy e poi rimuoverli. Un moderatore marocchino che lavora per Majorel, società di outsourcing di TikTok in Africa, deve rivedere i contenuti più raccapriccianti della piattaforma, inclusi suicidi e materiale pedopornografico. Viene in mente Alex DeLarge di Arancia meccanica quando lo legano stretto stretto su una sedia e gli spalancano gli occhi con i morsetti chirurgici per costringerlo a vedere immagini violente fino alla fine. Senza chiudere gli occhi.
Paghe basse, nessun tipo di automazione per proteggersi dai contenuti più violenti, nessun supporto psicologico. Insider ha portato alla luce alcune di queste storie. Per esempio Samira, 23 anni, chiusa nella sua stanza a Casablanca, è una moderatrice di Majorel e per due euro all’ora, ogni giorno, entra nella sua galleria degli orrori. Scorrono sul suo schermo immagini di gatti squartati, un anziato fatto a pezzi con un’ascia da un gruppo di adolescenti, un uomo che si spara in testa con un fucile da caccia. Deve guardare tutto fino alla fine per controllare se e quanto sangue c’è nell'immagine, così da poter applicare la categoria “gore”, segnalare le diverse tipologie di mutilazioni, abusi, violenze. Deve etichettare in modo accurato ogni tipo di atrocità.
Un mercato in crescita
Le proiezioni di Insider Intelligence hanno mostrato che TikTok mira ad allargare la sua base di utenti in Medio Oriente e Nord Africa del 30% entro la fine dell’anno. Per farlo ha aumentato la sua forza lavoro, assumendo moderatori nella regione. Un ex consulente Majorel ha stimato che 1.400 moderatori di contenuti lavorano per TikTok in tutto il Marocco. E nel 2020 sono stati assunti 770 nuovi moderatori. Samira è una tra i tantissimi.
Le condizioni nei Paesi del terzo mondo
La gestione dei contenuti non funziona allo stesso modo in tutti i mercati. TikTok, infatti, utilizza l'intelligenza artificiale per aiutare a rivedere i contenuti, un modo per tutelare i moderatori dai video più violenti. La tecnologia, però, funziona con l’inglese, fatica con le altre lingue. Proprio per questo gli operatori africani sono costretti a guardare video violenti e dannosi.
"Il management non ci considerava umani, piuttosto robot", spiega Samira a Insider. Dieci secondi per rivedere un video, per un totale di 200 ogni ora mantenendo un punteggio di precisione del 95%. “A volte iniziavo a mezzogiorno e non potevo smettere di guardare video fino a mezzanotte. Lavoravo 12 ore di fila". I moderatori negli Stati Uniti hanno detto a Insider di aver ricevuto la possibilità di tre break oltre alla pausa pranzo di un'ora, mentre i moderatori in Marocco hanno affermato di aver solamente una pausa di 40, 45 minuti oltre alla pausa pranzo.
Un problema per la salute mentale
Un lavoro faticoso che lascia strascichi e traumi in un Paese dove le risorse per la salute mentale sono pochissime. L’azienda non ha messo a disposizione dei bonus per confrontarsi con psicologi e terapeuti, è concessa una “chiacchierata al mese”, spesso con specialisti diversi che non assicurano una continuità. Ci sono molti ostacoli per i moderatori che cercano di ricevere assistenza.
La dottoressa Jihad Bnimoussa, psicologa e CEO di Inspire Corp, una startup tecnologica per la salute mentale in Marocco, ha spiegato che la maggior parte degli psicologi ha una lunga lista d'attesa. Non solo, una seduta costa di solito intorno ai 30 dollari. Un prezzo proibitivo per un dipendente medio di Majorelle che guadagna 500 dollari al mese. Samira, per esempio, per pagare una sessione sarebbe costretta a lavorare 18 ore.