video suggerito
video suggerito

Perché l’uso che Elon Musk fa di X è un pericolo per la democrazia

Dopo il sostegno ai neonazisti tedeschi dell’Afd, Elon Musk ha lanciato su X il movimento “Mega”, chiamando a raccolta l’estrema destra europea. La deputata Valentina Grippo, relatrice sulla libertà dei media e la sicurezza dei giornalisti nel Consiglio d’Europa, spiega a Fanpage: “Servono regole comuni sugli algoritmi e sulla gestione della moderazione sui social network”.
A cura di Fabio Salamida
0 CONDIVISIONI
Elon Musk
Elon Musk

Mentre Donald Trump respinge i migranti e sigilla le frontiere degli Stati Uniti, il suo “Rasputin”, Elon Musk, non conosce confini e si prepara a invadere l’Europa, almeno in quel mondo virtuale che ormai condiziona l’opinione pubblica. Dopo il sostegno ai neonazisti tedeschi dell’Afd, Musk ha lanciato il movimento “Mega” (Make Europe Great Again) la versione europea del “Maga”, nato dallo slogan trumpiano "Make America Great Again". Per farlo ha usato, come ormai consuetudine, il suo social network. “Gente d’Europa unitevi al movimento Mega”, ha scritto su X, ottenendo in poche ore oltre 54 milioni di visualizzazioni. Il fondato sospetto di molti è che il miliardario sudafricano, che ha ovviamente libero accesso all’algoritmo dell’ex Twitter, stia pompando alcuni contenuti e alcuni profili a scapito di altri, spingendo la propaganda dell’estrema destra in Germania e nel resto d'Europa, come ha già fatto con quella di Trump, che nella campagna per le presidenziali ha raggiunto miliardi di utenti sulla sua piattaforma.

L’assalto di Musk all’Europa e le contromisure messe in campo dall’Ue

Il chiaro obiettivo di Musk è far implodere l’Unione Europea trainando il consenso dell’estrema destra sovranista. E l’Europa che fa per impedirlo? Dal 2 febbraio è in vigore l’AI Act, una legge che imporrà alle piattaforme social e a quelle che utilizzano l’intelligenza artificiale di rispettare una serie di regole, soprattutto sulla gestione dei dati personali, su cui l’Ue chiede trasparenza. E poi ci sono le iniziative del Consiglio d’Europa, certo non vincolanti ma che possono dare un indirizzo. L’organizzazione intergovernativa ha approvato il “Regulating Content Moderation in the Digital Age”, un rapporto che stabilisce nuove linee guida per garantire che la sicurezza digitale e chiede alle piattaforme regole chiare per la moderazione dei contenuti online. A scrivere l’impianto del documento è stata la deputata di Azione e vicepresidente della Commissione Cultura della Camera dei Deputati, Valentina Grippo, che nel Consiglio d’Europa è relatrice sulla libertà dei media e la sicurezza dei giornalisti.

Grippo: "Abbiamo incontrato tutti i responsabili delle piattaforme, ma X non ha voluto collaborare"

“Ci tengo a fare una premessa: il rapporto che ho portato in Consiglio d'Europa ed è diventato una risoluzione votata all'unanimità – spiega Valentina Grippo a Fanpage – non nasce per rispondere a Elon Musk o a Mark Zuckerberg, che ha recentemente cambiato la policy di Meta sul fact-checking, ma è frutto di un lavoro iniziato oltre un anno fa, quando il Consiglio d'Europa si è accorto che c'è una grande problematica che riguarda le piattaforme. Se da un lato c'è infatti l'esigenza di tutelare la libertà d'espressione del pensiero, che deve essere garantita in rete come se si fosse in una piazza, dall'altro ci deve essere l'obbligo di tutelare i diritti umani su altri fronti: dal diritto a un'informazione equa e non deviata, senza che ci sia qualcuno che con un algoritmo decide cosa è più visibile e cosa è più nascosto, al il diritto a non avere contenuti che incitano alla violenza, che violano i diritti umani e i diritti costituzionali. E poi ovviamente c'è la tutela dei diritti dei minori e delle minoranze".

Valentina Grippo
Valentina Grippo

Obiettivi che potrebbero sembrare scontati ma che in realtà sono molto ambiziosi, perché la gestione a dir poco opaca degli algoritmi è il centro del business dei colossi del web. Il codice che decide cosa arriva e cosa non arriva all'utente è la chiave di tutto, sia a livello commerciale che a livello politico. "La nostra risoluzione – continua Grippo – nasce da una lunghissima ricerca e da un confronto con le società che gestiscono le piattaforme. Siamo stati a Dublino, dove ci sono tutte le sedi europee delle società che gestiscono i social network: abbiamo visitato Google, Meta, TikTok e abbiamo chiesto loro come moderano i contenuti, con quali strumenti, quando utilizzano l'intelligenza artificiale, quando l'essere umano e con quali regole. Chi non ha voluto interloquire, lo dico senza polemica, è stato proprio X, il social di Elon Musk. Tutti gli altri ci hanno mostrato modalità diverse di moderazione, che rispondono anche al loro pubblico di riferimento: ad esempio TikTok ha un focus particolare sulla tutela dei minori, visto il target giovane a cui si rivolge; Meta ha invece l'esigenza di garantire una piazza pubblica che non sia censurata. Il dialogo con queste realtà è fondamentale, perché col loro fatturato pesano più di ogni singolo Stato dell'Unione Europea, quindi la sfida è stata proporre delle regole perseguibili all'atto pratico e non semplici dichiarazioni d'intenti, magari irrealizzabili. Nel nostro lavoro di ricerca abbiamo poi sperimentato il funzionamento dell'IA sulla moderazione: io stessa ho provato a vedere cosa succedeva simulando dei comportamenti critici come agitare un coltello o prendere in mano una sigaretta, per capire quando il sistema automatico mi rimandava al controllo umano. Nella risoluzione diciamo che ovviamente può andar bene un controllo automatico su larga scala, ma l'ultima parola deve essere di un operatore perché ci sono sfumature, come ad esempio l'ironia, che vanno tutelate. Altro atto di indirizzo riguarda proprio la selezione e i diritti di questi lavoratori, che sono esposti ogni giorno a contenuti spesso violenti e vanno tutelati".

La strada tracciata è governare gli algoritmi gestendoli come i dati personali

L'Unione Europea ha chiesto a X di fornire, entro il 15 febbraio 2025, una documentazione dettagliata sui suoi sistemi di raccomandazione e sulle eventuali modifiche all'algoritmo. A insospettire è il palese "doping" che viene dato a politici e profili che diffondono contenuti di estrema destra, spesso palesemente xenofobi. Quello che spaventa molti è che Elon Musk, il proprietario di una piattaforma così diffusa, diventi anche un attore politico, influenzando l'opinione pubblica sia negli States che nel vecchio continente. "Il rischio c'è – spiega ancora la deputata di Azione – ed è il motivo che ci ha spinto a inserire nella risoluzione, che ovviamente non è un documento ad personam, un punto di caduta molto simile a quello che si fece nel 1996 sulla privacy e la gestione dei dati personali. All'epoca fu creata l'informativa sulla privacy che prevede che l'utente autorizzi l'utilizzo dei suoi dati a chi ne fa espressamente richiesta. Traslando il concetto sulla gestione degli algoritmi, abbiamo proposto agli Stati di prevedere delle norme che consentano all'utente di avere il controllo dell'algoritmo. Faccio un esempio: se il social mi propone delle case al mare o delle case in montagna, io devo sapere per quale motivo lo fa e in base a quale percorso telematico. E se scopro che quel suggerimento non nasce da un percorso ma dalla volontà di vendermi una casa invece di un'altra, devo poter far valere i miei diritti e intervenire in tempo reale. Ovviamente vale lo stesso per la politica: un contenuto non richiesto o che non risponde alle mie idee non può essere imposto da chi gestisce il social network".

Più tutele per i giornalisti e il divieto di shadow ban

Quello che rende i social network delle piazze senza regole, è anche l'appiattimento dei ruoli. Il classico profilo "Farfallina86", magari "pompato" dall'algoritmo perché diffonde contenuti graditi al proprietario della piattaforma, può avere più visibilità di quello di un giornale e persino di un leader politico. "E il motivo per cui abbiamo proposto delle esenzioni – conclude Valentina Grippo – perché non tutti sono uguali: se a scrivere è un giornalista o una testata registrata, soggetta già a una serie di regolamenti e a un codice deontologico, non può subire lo stesso grado di moderazione di un normale cittadino. Vuol dire che quel contenuto non può subire un semplice controllo da parte dell'intelligenza artificiale ma va valutato da una persona fisica. Abbiamo poi chiesto per tutti il divieto dello shadow ban, perché la piattaforma non può rimuovere contenuti o nascondere interi profili senza spiegare all'utente il motivo. Le piattaforme, quando sono state convocate, hanno mostrato disponibilità, poi come abbiamo visto hanno fatto dei passi indietro: in particolare parlo di Meta, che aveva assicurato di proseguire il lavoro avviato con i fact checker indipendenti e poi ha cambiato radicalmente policy: è stato un gravissimo errore, perché noi stavamo invitando anche tutti gli altri a fare lo stesso".

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views