Facebook e Instagram potrebbero cambiare per sempre senza fact-checking: quali sono i rischi per gli utenti
Meta eliminerà i fact-checker, "ridurrà drasticamente le censura" e consiglierà "più contenuti politici su Instagram, Facebook e Threads", queste le parole di Mark Zuckerberg. Dietro agli slogan che glorificano la libertà di parola c'è però una scelta politica che potrebbe cambiare radicalmente i social che utilizziamo quotidianamente. Partiamo da una premessa, le piattaforme hanno sempre faticato a moderare i contenuti sulle loro piattaforme. È difficile frenare la polarizzazione, intercettare i contenuti violenti, distinguere le fake news, impedire a gruppi estremisti di proliferare sulle piattaforme o proteggere le minoranze da commenti offensivi. Meta, eliminando completamente il controllo dei fact checker professionisti e lasciando la moderazione in mano ai suoi utenti, rischia di peggiorare la situazione.
Possiamo già immaginare le possibili conseguenze per gli utenti di Instagram, Facebook e Threads. Parafrasando Antoine de Saint-Exupéry se vuoi comprendere il presente, studia il passato. E infatti la prospettiva più realistica è che le piattaforme di Meta seguano il declino di X. Il social dopo l'acquisto di Musk è stato moderato attraverso le community notes (lo stesso sistema che adotterà Zuckerberg, nell'annuncio non a caso ha citato direttamente X a titolo esemplificativo). In poco tempo la piattaforma si è trasformata in un terreno di propaganda elettorale e meme di cattivo gusto, un solido avanposto per estremisti, misogeni, razzisti. X è diventato una sabbia mobile che risucchia i contenuti reali e sputa fuori disinformazione e violenza.
Meta ha sottolineato che i contenuti pericolosi su suicidio, autolesionismo o disturbi alimentari saranno comunque considerati "violazioni di elevata gravità" e che "continuerà a utilizzare i sistemi automatizzati per rilevare tali contenuti di elevata gravità". I guardrail potrebbero però non essere sufficienti e il caso X ci racconta un'altra storia.
Cosa significa l'eliminazione del fact-cheking e come funzionano le community notes
Per anni Meta si è appoggiato a organizzazioni esterne come Associated Press, ABC News e International Fact-Checking Network, per esaminare i post potenzialmente falsi o fuorvianti su Facebook e Instagram e stabilire se fosse necessario rimuoverli. Con il nuovo sistema gli utenti segnaleranno i contenuti. Community notes infatti è un programma di moderazione guidato dalla comunità con l'obiettivo di contrastare la propaganda e la disinformazione.
L'idea delle "community notes" è nata per la prima volta su Twitter nel 2019, quando un team di sviluppatori dell'azienda ha teorizzato un modello di crowdsourcing in grado di moderare i contenuti. A gennaio 2021, la società ha lanciato un programma pilota della funzione, chiamata "Birdwatch". Su X, le note della community sono diventate uno strumento di crowd-sourcing che permette agli utenti stessi di moderare i contenuti, senza che l'azienda supervisioni direttamente il processo. Un gruppo selezionato di utenti registrati come "collaboratori" può quindi scrivere una nota sotto qualsiasi post che considera fuorviante o inesatto, altri collaboratori possono valutare se la nota è utile.
Cosa cambierà per gli utenti di Instagram e Facebook
Le community notes hanno trasformato X in una terra selvaggia, e infatti le nuove politiche di Meta hanno sollevato preoccupazioni. Secondo Chris Morris, amministratore delegato dell'organizzazione di fact-checking Full Fact, finanziata da Meta per controllare i contenuti di Facebook, l'annuncio è "un passo indietro che rischia di avere un effetto paralizzante in tutto il mondo". Ha affermato che i fact-checker della sua organizzazione hanno sempre valutato i contenuti "di tutti gli schieramenti politici con lo stesso rigore."
Global Witness, gruppo per la difesa dei diritti umani, ha dichiarato: "L'annuncio di Zuckerberg è un palese tentativo di ingraziarsi la nuova amministrazione Trump. Questi cambiamenti renderanno i social più pericolosi per le donne, le persone LGBTQ+, le persone di colore, gli scienziati e gli attivisti, categorie che già subiscono molestie e attacchi sproporzionati".
Il Centre for Information Resilience, organizzazione per il monitoraggio dell'incitamento all'odio e della disinformazione online, ha spiegato che le community notes saranno un "importante passo indietro per la moderazione dei contenuti in un momento in cui la disinformazione e i contenuti dannosi si stanno evolvendo più velocemente che mai".