video suggerito
video suggerito

Facebook e Instagram potrebbero cambiare per sempre senza fact-checking: quali sono i rischi per gli utenti

Mark Zuckerberg ha annunciato che abbandonerà il sistema di moderazione e fact-checking basato su organizzazioni terze specializzate nell’individuare contenuti pericolosi, violenti o fuorvianti. D’ora in poi su Instagram, Facebook e Threads saranno solo gli utenti a segnalare post, video e reel.
A cura di Elisabetta Rosso
36 CONDIVISIONI
Immagine

Meta eliminerà i fact-checker, "ridurrà drasticamente le censura" e consiglierà "più contenuti politici su Instagram, Facebook e Threads", queste le parole di Mark Zuckerberg. Dietro agli slogan che glorificano la libertà di parola c'è però una scelta politica che potrebbe cambiare radicalmente i social che utilizziamo quotidianamente. Partiamo da una premessa, le piattaforme hanno sempre faticato a moderare i contenuti sulle loro piattaforme. È difficile frenare la polarizzazione, intercettare i contenuti violenti, distinguere le fake news, impedire a gruppi estremisti di proliferare sulle piattaforme o proteggere le minoranze da commenti offensivi. Meta, eliminando completamente il controllo dei fact checker professionisti e lasciando la moderazione in mano ai suoi utenti, rischia di peggiorare la situazione.

Possiamo già immaginare le possibili conseguenze per gli utenti di Instagram, Facebook e Threads. Parafrasando Antoine de Saint-Exupéry se vuoi comprendere il presente, studia il passato. E infatti la prospettiva più realistica è che le piattaforme di Meta seguano il declino di X. Il social dopo l'acquisto di Musk è stato moderato attraverso le community notes (lo stesso sistema che adotterà Zuckerberg, nell'annuncio non a caso ha citato direttamente X a titolo esemplificativo). In poco tempo la piattaforma si è trasformata in un terreno di propaganda elettorale e meme di cattivo gusto, un solido avanposto per estremisti, misogeni, razzisti. X è diventato una sabbia mobile che risucchia i contenuti reali e sputa fuori disinformazione e violenza.

Meta ha sottolineato che i contenuti pericolosi su suicidio, autolesionismo o disturbi alimentari saranno comunque considerati "violazioni di elevata gravità" e che "continuerà a utilizzare i sistemi automatizzati per rilevare tali contenuti di elevata gravità". I guardrail potrebbero però non essere sufficienti e il caso X ci racconta un'altra storia.

Cosa significa l'eliminazione del fact-cheking e come funzionano le community notes

Per anni Meta si è appoggiato a organizzazioni esterne come Associated Press, ABC News e International Fact-Checking Network, per esaminare i post potenzialmente falsi o fuorvianti su Facebook e Instagram e stabilire se fosse necessario rimuoverli. Con il nuovo sistema gli utenti segnaleranno i contenuti. Community notes infatti è un programma di moderazione guidato dalla comunità con l'obiettivo di contrastare la propaganda e la disinformazione.

L'idea delle "community notes" è nata per la prima volta su Twitter nel 2019, quando un team di sviluppatori dell'azienda ha teorizzato un modello di crowdsourcing in grado di moderare i contenuti. A gennaio 2021, la società ha lanciato un programma pilota della funzione, chiamata "Birdwatch". Su X, le note della community sono diventate uno strumento di crowd-sourcing che permette agli utenti stessi di moderare i contenuti, senza che l'azienda supervisioni direttamente il processo. Un gruppo selezionato di utenti registrati come "collaboratori" può quindi scrivere una nota sotto qualsiasi post che considera fuorviante o inesatto, altri collaboratori possono valutare se la nota è utile.

Cosa cambierà per gli utenti di Instagram e Facebook

Le community notes hanno trasformato X in una terra selvaggia, e infatti le nuove politiche di Meta hanno sollevato preoccupazioni. Secondo Chris Morris, amministratore delegato dell'organizzazione di fact-checking Full Fact, finanziata da Meta per controllare i contenuti di Facebook, l'annuncio è "un passo indietro che rischia di avere un effetto paralizzante in tutto il mondo". Ha affermato che i fact-checker della sua organizzazione hanno sempre valutato i contenuti "di tutti gli schieramenti politici con lo stesso rigore."

Global Witness, gruppo per la difesa dei diritti umani, ha dichiarato: "L'annuncio di Zuckerberg è un palese tentativo di ingraziarsi la nuova amministrazione Trump. Questi cambiamenti renderanno i social più pericolosi per le donne, le persone LGBTQ+, le persone di colore, gli scienziati e gli attivisti, categorie che già subiscono molestie e attacchi sproporzionati".

Il Centre for Information Resilience, organizzazione per il monitoraggio dell'incitamento all'odio e della disinformazione online, ha spiegato che le community notes saranno un "importante passo indietro per la moderazione dei contenuti in un momento in cui la disinformazione e i contenuti dannosi si stanno evolvendo più velocemente che mai".

36 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views