Perché si sta parlando del video di Barbero generato con l’intelligenza artificiale

"Immaginiamo che l'Austria nel 2014 decide che l'Italia o almeno una parte di Italia non sia davvero italiana". Inizia così un video intitolato: "Un Barbero da sogno sulla guerra in Ucraina. Parole sante. In primo piano c'è il professore di storia, il tono della voce è il suo, anche la cadenza, l'accento. Eppure il video è fake, è stato modificato con l'intelligenza artificiale. I segnali ci sono, guardando attentamente infatti le labbra sono sfocate e alcuni movimenti delle bocca sono innaturali, eppure per chi non ha l'occhio allenato può essere difficile riconoscere un deepfake.
Nel video, pubblicato da Luca Bottura, giornalista e scrittore, Barbero parla della guerra in Ucraina, immaginando uno scenario simile in Italia. Le tesi portate avanti non sono in linea con il pensiero di Barbero e infatti basta aspettare la fine del video, negli ultimi secondi compare un disclaimer: "Ovviamente tutto ciò è stato frutto dell'intelligenza artificiale, però è stato bello sognare".
Le critiche sul video fake di Barbero
In molti hanno puntato il dito contro il deepfake. Sotto, tra i commenti diversi utenti hanno criticato il video manipolato e il giornalista che ha modificato la voce del professore con un software. "Non bisogna modificare i filmati con l'intelligenza artificiale", scrive un utente. "È estremamente pericoloso, non tutti riescono a riconoscere questi deepfake".
Bottura in un post su X si è scusato. Ha scritto: "Ieri mi sono macchiato di una colpa gravissima: ho creato – fatto creare: non ne sono capace personalmente – e condiviso sui social un video in cui facevo dire al professor Barbero, con l’AI, quello che penso sull’invasione russa dell’Ucraina e su come, al netto degli estremismi (pacifinti! bellicisti!) la situazione mi pare sia molto più vicina alla fine degli anni Trenta che non alla vigilia della Prima Guerra Mondiale, come invece sostenuto dall’esimio storico, sia detto senza celiare, alla manifestazione di sabato scorso a Roma". Solo una nota: "celiare" è una forma aulica per scherzare. Ha poi aggiunto: "Il mio obiettivo era fare satira, voleva essere una provocazione".
I rischi dei deepfake: come riconoscerli
I deepfake stanno creando una nuova frontiera, quella del reale sintetico. In realtà i video manipolati esistono da decenni, eppure con l'introduzione dell'intelligenza artificiale è diventato ancora più semplice e veloce creare repliche digitali estremamente verosimili. Non solo, realizzarli è diventato ancora più semplice, non servono competenze specifiche basta usare Large Language Model come ChatGPT, software per la generazione di immagini come Midjourney, o strumenti di clonazione vocale come ElevenLabs. Per questo è necessario imparare a riconoscere le immagini manipolate.
È fondamentale fare attenzione ai dettagli. I volti spesso appaiono innaturali, con espressioni rigide, oppure con il labiale fuori sincrono rispetto all’audio. Anche i contorni del volto possono risultare sfocati o non allineati, e l’illuminazione non combaciare con l’ambiente circostante. Anche l'audio può fornire degli indizi: voci metalliche o innaturali spesso sono indice di un video manipolato. È fondamentale infine considerare il contesto: un video contraddittorio, allarmista, pubblicato da fonti non ufficiali va preso con cautela e verificato con attenzione.