video suggerito
video suggerito
Intelligenza artificiale (IA)

“Le immagini create con l’IA in campagna elettorale creano più di un problema”: l’analisi dell’esperto

È sempre più difficile riconoscere un’immagine reale da una artificiale. L’IA generativa sta alimentando le fake news e la disinformazione andando a creare un panorama confuso che erode la fiducia degli utenti.
Intervista a Giulio Corsi
Ricercatore dell’Institute for Technology and Humanity dell'Università di Cambridge
A cura di Elisabetta Rosso
45 CONDIVISIONI
MIDJOURNEY | La foto fake del Papa con il piumino
MIDJOURNEY | La foto fake del Papa con il piumino
Attiva le notifiche per ricevere gli aggiornamenti su

Marzo 2023. Sui social diventa virale l'immagine di Papa Francesco con un piumino Moncler addosso. È solo la prima di una lunga serie di contenuti creati con l'intelligenza artificiale. I primi tentativi sono stati goffi, uscivano mani con sette dita, occhi sbilenchi ed espressioni plastiche. Poi diventa sempre più difficile distinguere le immagini artificiali. I software eccellono nella produzione di contenuti iperrealistici perché sono stati addestrati su decine di migliaia di fotografie e disegni pubblicati sul web. Chiunque può accedere e creare con una stringa di parole immagini finte che sembrano vere. 

L’intelligenza artificiale generativa infatti offre i mezzi per una disinformazione preventiva, crea le prove per fatti che non sono mai accaduti, alimenta le fake news, potrebbe incidere sulle elezioni politiche, e alimentare complotti. "I modelli IA hanno introdotto nuove complessità e rischi negli ambienti informativi, i media sintetici infatti possono facilitare la diffusione di notizie false ed erodere la fiducia del pubblico", ha spiegato a Fanpage.it Giulio Corsi, ricercatore presso l’Institute for Technology and Humanity dell'Università di Cambridge.

Ha condotto, insieme ai colleghi Bill Marino (Università di Cambridge) e Willow Wong (National University of Singapore), uno studio per analizzare la diffusione dei media sintetici su X. I risultati mostrano un panorama confuso che spaventa ancora di più in vista delle prossime elezioni.

Come è iniziata la diffusione dei media sintetici? 

Ti direi che tutto è partito dalla settimana del 20 marzo 2023, subito dopo l'uscita di Midjourney v5 il 15 marzo. In questo periodo, alcune immagini generate da IA sono diventare virali, in particolare quella del Papa con il piumino bianco e la serie di immagini dell'arresto di Trump.

Ci sono dei dati?

Allora, da febbraio a marzo 2023 i media sintetici sono aumentati di quasi il 400% ma l’ incremento si è verificato soprattutto dopo il 20 marzo. Prima di questa data la presenza di media sintetici era praticamente nulla.

Perché ha impattato così tanto il rilascio al grande pubblico di modelli come Midjourney?

Con Midjourney (al contrario di modelli più chiusi come Dall-E di OpenAI) gli utenti possono creare immagini di persone, anche famose. Facilitano in questo modo la creazione di contenuti per la disinformazione politica. Va però anche chiarito che Midjourney non è completamente open-source, come per esempio Stable Diffusion.

Per esempio?

Un utente che ha utilizzato il modello per creare immagini di politici che tradivano i propri partner è stato bannato nel 2023.

Sono aumentati i contenuti fake lato politico?

Di pari passo con tutti gli altri contenuti. La percentuale rimane relativamente stabile nel periodo che abbiamo analizzato. Abbiamo però rilevato che circa il 40% delle immagini trovate sono di natura politica. È un dato importante.

Spiegati meglio.

Allora questo 40% ci dice da un lato che l'uso principale di questa tecnologia non è ancora quello politico (la maggior parte delle immagini che abbiamo trovato sono dei meme), ma che comunque la creazione di contenuti politici è una parte importante. Non solo, la maggior parte dei media non-politici sono immagini, quelli politici, invece, soprattutto video deepfake.

A proposito. Come sta impattando? Penso per esempio alle elezioni europee.

L'impatto è già molto visibile. Questi contenuti vogliono confondere le persone in una stagione elettorale già delicata. Un esempio interessante sono le immagini create con l’IA da Salvini, come l’uomo incinto o i musulmani che bruciano la divina commedia.

Diventa anche difficile per gli elettori capire cosa è vero e cosa non lo è.

Sì, questi contenuti vanno infatti a erodere la fiducia che gli utenti online hanno nelle informazioni che vedono. Più vengono esposti a informazioni realistiche ma false meno si fidano. Possiamo chiamare questo fenomeno una rottura del ‘seeing is believing'.

Quali sono le conseguenze?

La bassa fiducia del pubblico nelle informazioni visive può essere facilmente utilizzata in politica. Immaginiamo per esempio il caso di un politico che viene colto in flagrante mentre compie un’azione illecita, potrebbe difendersi dicendo che il video o immagine è stato generato con l'intelligenza artificiale.

E invece, le spunte blu di Elon Musk quanto hanno inciso?

Secondo i nostri dati, il 57% degli utenti che hanno condiviso media sintetici sono verificati con la spunta blu a pagamento. Questo ovviamente è un problema, perché la spunta blu è un ‘segnale di integrità' che rischia di confondere le persone che continuano a collegare la spunta blu ad informazioni affidabili. Dall'altro lato però, abbiamo notato che l'impatto sulla visibilità della spunta blu è grande ma non enorme (circa +20%). In generale, però la spunta sembra aver giocato un ruolo importante nella diffusione di media sintetici.

La fake news più pericolosa che avete intercettato?

Forse l'esempio più pericoloso è il video deepfake di Joe Biden che annuncia la leva obbligatoria per mandare militari US in Ucraina e Taiwan, un video che ha circolato molto in ambienti di estrema destra americana prima di essere debunkato.

Un problema grave dei media sintetici sono anche i deep nude o i porno deep fake che colpiscono soprattutto le donne.

Assolutamente, questo è uno dei problemi principali dei media sintetici, in Italia abbiamo avuto per esempio il caso del deepfake di Giorgia Meloni. Abbiamo anche trovato deepfake e deep nude di Jennifer Lawrence o Alexandria Ocasio-Cortez. Ce lo insegna la storia di internet, la creazione di contenuti sessuali è una costante per ogni nuova tecnologia, ed è probabile che nel tempo questo diventi uno dei rischi più grandi dei media sintetici.

Ma cosa cambia da un fotomontaggio ben fatto a un'immagine o video creati con l’intelligenza artificiale?

Bella domanda! Non molto, un fotomontaggio fatto bene può in alcuni casi raggiungere risultati migliori di un'immagine o video creato con intelligenza artificiale. La grande differenza (e il grande fattore di rischio) è che l’IA permette la creazione pressoché immediata, a basso costo e con capacità tecniche molto limitate di contenuti estremamente realistici. Non solo, l’IA permette anche di creare immagini di situazioni assurde senza aver bisogno di una base di partenza realistica.

Andiamo al cuore della questione. Quali sono i rischi dei media sintetici?

In generale dividiamo i rischi dei media sintetici in due macro categorie, quella dei rischi collettivi, per esempio influenzare elezioni o compromettere risposte di emergenza in situazioni di crisi, e i rischi individuali come phishing, spoofing, deepfake porn. Poi come dicevamo c’è l'erosione della fiducia verso gli organi di informazione, soprattutto quando queste fake news vengono personalizzate.

In che senso?

C’è un articolo del New York Times di qualche giorno fa che può essere un esempio interessante. Spiega come Israele ha creato una rete di bot per diffondere propaganda personalizzata in base audience.

E invece, quali sono i fattori di contesto che vanno ad alimentare la diffusione dei media sintetici?

Al momento, i fattori di contesto sono tre. Il primo è la capacità di modelli, più i modelli diventano sofisticati, più diventa difficile sviluppare difese. La seconda è l’accesso a questi modelli. Fino a qualche anno fa, pochissime persone potevano usare modelli IA estremamente avanzati, questo è cambiato negli ultimi anni. Infine è importante ricordare che la disinformazione ‘attacca' meglio quando il pubblico è diviso, estremizzato e polarizzato. In questi casi diventa molto facile confondere le persone con media sintetici.

I media sintetici possono essere utilizzati diciamo “in modo positivo”?

È difficile pensare a usi davvero positivi di media sintetici. Forse quello più interessante (non so se positivo) riguarda l’arte. Anche nel settore dell'istruzione  può essere utile. Sono stato ad una conferenza lo scorso weekend dove si è parlato dell'uso di IA per far immaginare ambienti sostenibili nelle classi. Diciamo però che per ora gli usi positivi non sono molti.

Il peggior scenario possibile nel futuro prossimo? Considerando anche i progressi dell’IA…

I modelli che diventano sempre più potenti e accessibili senza sviluppare adeguati sistemi di difesa. Già ora è molto difficile riconoscere un contenuto generato da un’IA. Pensando quindi ai peggiori scenari possibili immagino contenuti in grado di influenzare elezioni politiche, per esempio se non si riesce a stabilire in tempo se l’immagine è stata realizzata con l’IA. O emergenze come crisi nucleari.

In che modo?

Al momento sono co-organizzatore di un progetto con l’International Atomic Energy Agency dell’ONU (IAEA) per analizzare l'uso dell’IA per creare disinformazione in situazioni di emergenza nucleare, cosa che succede spesso tra stati (per esempio tra Russia e Ucraina  o tra Cina e Giappone). Queste situazioni possono portare a impatti molto gravi su larga scala.

Quali sono i contenuti più pericolosi?

A livello generale direi i contenuti che possono creare panico nella popolazione, influenzare le intenzioni di voto o portare a non considerare un pericolo (per esempio il Covid).

Individuale invece?

A livello individuale probabilmente i due rischi più grandi saranno legati ai deepfake sessuali e casi di spoofing, in cui per esempio le nostre voci generate dai IA possono essere usate per accedere ad informazioni private.

C’è un modo per proteggere gli utenti e contrastare il fenomeno?

Al momento ci sono tre soluzioni. La prima, e forse più importante, è il watermarking di contenuti generati dall'IA. Ogni volta che un modello crea contenuti sintetici bisognerebbe aggiungere una ‘firma' leggibile. Questo è il modo migliore per tracciare la circolazione di contenuti sintetici, a livello tecnico è una sfida molto complessa che nessuno sembra ancora aver risolto. Un'altra soluzione interessante è l'uso di sistemi di crowdsourcing come Community Notes su X, che permette agli utenti della piattaforma di contribuire nel determinare se un contenuto ha bisogno di informazioni aggiuntive. L'ultima soluzione è lavorare su chi riceve informazioni, preparando il pubblico e insegnando quali sono i metodi principali per riconoscere un media sintetico.

Queste soluzioni saranno sufficienti o c’è il rischio che l'evoluzione tecnologica le smarchi in tempi brevi?

I più importanti sviluppatori di IA sono molto concentrati sul progresso tecnico e meno alla sicurezza. E infatti abbiamo tecnologie per creare media sintetici ma non abbiamo per identificarli. Considerata la velocità con cui evolvono sicuramente sarà un problema. Ora grazie all'AI Act dell'Unione Europea chi usa contenuti creati dall'IA deve dirlo chiaramente…

Però il problema sta alla base.

E certo, se non riusciamo nemmeno a riconoscere cosa è creato dall’IA sarà impossibile anche solo applicare la regola-

45 CONDIVISIONI
500 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views