video suggerito
video suggerito
Intelligenza artificiale (IA)

Cosa c’è dietro ChatGPT? Le storie dei lavoratori africani che per due dollari all’ora guardano il male del web

Per ripulire il chatbot, OpenAI si è rivolta a Sama, un’azienda africana che etichetta i contenuti violenti su internet. Secondo la rivista TIME, Sama avrebbe sfruttato oltre 50.000 persone per rispettare tutti i contratti.
A cura di Elisabetta Rosso
167 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

La storia del successo non è solo fatta di geni della Silicon Valley con code da cavallo e sandali da hipster. Dietro all'entusiasmo delle nuove tecnologie c'è altro. La rivista Time ha rivelato che dietro all'intelligenza artificiale di ChatGPT ci sono i lavoratori kenioti in outsourcing che guadagnano meno di due dollari l'ora. È la schiavitù 3.0, quella che permette alle industrie tech di macinare miliardi di dollari.

ChatGPT di Open AI non fa eccezione. La macchina geniale che scrive come un umano funziona grazie agli etichettatori, sono loro il nuovo volto del lavoro sporco, fatto di dipendenti invisibili che catalogano per nove ore al giorno stupri, pedofilia, suicidi, violenza, incesti e odio per ripulire l’intelligenza artificiale da tutto il male del mondo.

Come è stata costruita ChatGPT

ChatGPT sin da subito è stata eccezionale, ma aveva un problema. In mezzo ai suoi sforzi muscolari c’erano commenti violenti, sessisti e razzisti. D’altronde è stata addestrata con centinaia di miliardi di parole raschiate dal web. Per questo era così brava e per lo stesso motivo scriveva parole come “vaff***ulo”, “neg*o” e via dicendo. Prima di mostrarla al mondo quindi era necessario "filtrare" l’Ia, e per farlo serviva un ulteriore meccanismo di sicurezza basato sull’intelligenza artificiale.

Così OpenAi prende in mano il playbook di Facebook, che aveva già affrontato il problema in precedenza. La soluzione è abbastanza semplice, per insegnare all’Ia cosa censurare basta alimentarla con esempi etichettati di violenza, incitamento all'odio e abusi sessuali. Così a novembre 2021 OpenAI invia migliaia di frammenti di testo a una società di outsourcing in Kenya, Sama, che si trova all’improvviso di fronte ad ogni male del web: abusi su minori, omicidi, suicidio, tortura, autolesionismo e incesto.

Perché è difficile moderare l'intelligenza artificiale

Non è la prima volta per Sama: aveva già lavorato con Google, Meta e Microsoft. Ufficialmente è un'azienda di "intelligenza artificiale etica"che ha contribuito a far uscire dalla povertà più di 50.000 persone, in Kenya, Uganda e India. In realtà dentro Sama i lavoratori vengono pagati tra 1,32 e i 2 dollari per mettere mani e occhi su contenuti orribili.

La rivista TIME ha parlato con i dipendenti di Sama che hanno partecipato al progetto . Un lavoratore incaricato di leggere ed etichettare il testo per OpenAI ha spiegato di aver sofferto di visioni ricorrenti dopo aver letto una descrizione grafica di un uomo che faceva sesso con un cane in presenza di un bambino. "È una tortura", ha detto, "leggi dichiarazioni del genere per tutta la settimana”.

"La nostra missione è garantire che l'intelligenza artificiale generale avvantaggi tutta l'umanità e lavoriamo duramente per costruire sistemi di intelligenza artificiale sicuri e utili che limitino pregiudizi e contenuti dannosi", ha affermato un portavoce di OpenAI, che ha confermato la collaborazione con Sama. "Classificare e filtrare i contenuti dannosi è un passo necessario per ridurre al minimo la quantità di contenuti violenti e sessuali inclusi nei dati di formazione e creare strumenti in grado di rilevare contenuti dannosi".

Quindi è un lavoro tanto necessario quanto crudele, ad aggravare c'è lo sfruttamento del lavoro. "Nonostante il ruolo fondamentale svolto da questi professionisti dell'arricchimento dei dati, un numero crescente di ricerche rivela le precarie condizioni di lavoro che questi lavoratori devono affrontare", afferma la Partnership on AI, una coalizione di organizzazioni di intelligenza artificiale a cui appartiene OpenAI. “Questo potrebbe essere il risultato degli sforzi per nascondere la dipendenza dell'IA da questa grande forza lavoro quando si celebrano i guadagni di efficienza della tecnologia”.

Come funziona Sama

OpenAi ha firmato tre contratti da 200.000 dollari con Sama a fine 2021. Per mantenere il ritmo i lavoratori sono stati divisi in tre squadre per argomento. Tre dipendenti hanno spiegato che avrebbero dovuto leggere ed etichettare tra 150 e 250 passaggi di testo in turni di nove ore. I contratti con OpenAI stabilivano una tariffa oraria di 12,50 dollari, eppure gli stipendi dei dipendenti a fine mese rasentavano i 170 dollari.

Un dipendente porta a casa un 1,32 dollari l'ora, che sale fino a 1,44 se supera tutti i suoi obiettivi. Gli etichettatori incaricati di controllare il flusso di lavoro riescono a raggiungere i 2 dollari l’ora. Questo è possibile perché in Kenya non esiste un salario minimo universale.

Un portavoce di OpenAI ha scaricato tutta la responsabilità su Sama spiegando che la società non ha imposto alcun obiettivo di produttività “prendiamo molto sul serio la salute mentale dei nostri dipendenti e quella dei nostri appaltatori. I lavoratori potevano rinunciare a qualsiasi contenuto senza penalizzazioni, l'esposizione al materiale esplicito avrebbe avuto un limite e le informazioni sensibili sarebbero state gestite da lavoratori specificamente formati."

A febbraio 2022 Sama inizia un nuovo progetto per OpenAI: raccogliere immagini sessuali e violente, alcune di queste sono illegali, da consegnare all’azienda di ChatGPT.  Secondo un documento di fatturazione, Sama ha consegnato a OpenAI un lotto campione di 1.400 immagini. Alcune sono state classificate come "C4", l'etichetta interna di OpenAI per gli abusi sessuali su minori, secondo il documento, altre "C3", ovvero bestialità, stupro e schiavitù sessuale, infine immagini "V3", dettagli grafici di morte, violenza o gravi lesioni fisiche. OpenAI ha pagato a Sama 787,50 dollari per la raccolta delle immagini, mostra il documento.

Il problema sono le immagini “C4” e "C3". Sama ha affermato in una dichiarazione che il suo accordo non includeva alcun riferimento a contenuti illegali, solo dopo l'inizio del lavoro OpenAI ha inviato "ulteriori istruzioni" riferendosi ad "alcune categorie illegali", appunto le immagini C4 e C3 relative agli abusi sui minori e allo stupro. “Per questo Sama ha immediatamente concluso il progetto pilota di classificazione delle immagini e ha comunicato che avremmo annullato tutti i restanti con OpenAI". E infatti Sama ha consegnato gli ultimi dati etichettati a marzo, otto mesi prima della scadenza del contratto.

La risposta di OpenAI

OpenAI ha confermato di aver ricevuto le 1.400 immagini da Sama che "includevano, ma non erano limitate a, immagini C4, C3, C2, V3, V2 e V1. Abbiamo coinvolto Sama come parte del nostro lavoro in corso per creare sistemi di intelligenza artificiale più sicuri. Non abbiamo mai chiesto di raccogliere alcun contenuto illegale perché non è necessario per i nostri filtri. Chiediamo ai nostri dipendenti di evitarlo attivamente. C’è stato un problema nella comunicazione, non abbiamo aperto o visualizzato il contenuto in questione, quindi non possiamo confermare se contenesse immagini nella categoria C4″.

Sama decide comunque di chiudere ogni contratto, e convoca a febbraio 2022 i dipendenti dell'azienda per spiegare la chiusura con OpenAI. La maggior parte dei lavoratori sono stati spostati su altri flussi di lavoro meno remunerativi per catalogare i contenuti espliciti, altri hanno perso il lavoro.

Un problema irrisolto

Il 10 gennaio, Sama ha fatto un ulteriore passo avanti, annunciando che avrebbe cancellato tutto il resto del suo lavoro con contenuti sensibili. L'azienda ha dichiarato che non rinnoverà il contratto di moderazione dei contenuti da 3,9 milioni di dollari con Facebook, di conseguenza 200 persone della sede di Nairobi perderanno il lavoro. "Dopo numerose discussioni con il nostro team globale, Sama ha preso la decisione strategica di abbandonare del tutto l'elaborazione del linguaggio naturale e il lavoro di moderazione dei contenuti per concentrarsi sulle soluzioni di annotazione dei dati di visione artificiale", ha spiegato la società in una nota.

Il risultato di questa operazione è che migliaia di persone dopo essere rimaste traumatizzate da contenuti violenti hanno perso i lavoro, e pur di mantenere la famiglia, come spiega un dipendente, era persino meglio stare ore e ore sotto pagati lasciando scorrere in sottofondo tutto il male del web. Non solo, ora chiude Sama, ma la necessità di etichettare dati per i sistemi di intelligenza artificiale rimane. "Sono impressionanti, ma ChatGPT e altri modelli generativi non sono magici: si basano su enormi catene di approvvigionamento di lavoro umano e dati, molti dei quali non sono attribuiti e utilizzati senza consenso", ha scritto di recente Andrew Strait, esperto di etica dell'IA. Quindi se non loro, saranno i prossimi.

167 CONDIVISIONI
500 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views