Perché YouTube ha deciso di rimuovere centinaia di video dal suo canale
"Si potrà chiedere la rimozione di contenuti generati dall'intelligenza artificiale, o video manipolati che simulano un individuo identificabile, incluso il suo volto o la sua voce", ha annunciato YouTube. Negli ultimi mesi sono spuntati sulle piattaforme brani fake e cover improbabili. Sono falsi ma sembrano veri. L'ultimo caso è un brano di Shiva generato con l'intelligenza artificiale, ma è successo a Taylor Swift, Justin Bieber, Miley Cyrus, Britney Spears. La lista è lunga. É sempre più difficile distinguere il reale dal sintetico e per questo YouTube ha deciso di introdurre uno strumento che consentirà alle etichette musicali e ai distributori di segnalare contenuti generati con l'IA.
La piattaforma consentirà anche alle persone di presentare reclami per i video deepfake: "Non tutti i contenuti verranno rimossi da YouTube e prenderemo in considerazione una serie di fattori nel valutare queste richieste", ha spiegato in un post sul blog Jennifer Flannery O'Connor, vicepresidente della gestione del prodotto dell'azienda.
Le nuove etichette su YouTube
YouTube chiederà anche ai creator di segnalare i video generati con l'intelligenza artificiale. Prima di caricare il contenuto devono contrassegnarlo con un'apposita etichetta che verrà aggiunta al pannello di descrizione. "La persistente violazione delle linee guida potrebbe comportare la rimozione dei contenuti o la sospensione dei pagamenti pubblicitari", ha spiegato la piattaforma.
YouTube ha anche sottolineato che le nuove linee guida sull’intelligenza artificiale sono particolarmente importanti “per quei casi in cui il contenuto tratta argomenti delicati, come elezioni, conflitti in corso e crisi di salute pubblica, o funzionari pubblici”.
Come fa l'IA a imitare gli artisti
Grazie ai modelli di machine learning text-to-speech è possibile partendo da un’audio di pochi secondi riprodurre la voce di chiunque senza snaturarla. Basta un click per ottenere il parlato o il cantato manipolando le forme d’onda.
Oltre a conservare il timbro vocale e il tono emotivo l’intelligenza artificiale riesce anche a imitare l'ambiente acustico dell'audio campione. Quindi se la voce registrata proviene da una telefonata l’IA sarà in grado di riprodurre le caratteristiche acustiche, per esempio la voce metallica filtrata dagli altoparlanti di uno smartphone. Tutto questo facendo ascoltare solo tre secondi dell'audio che l'IA deve imitare.
Potrebbe non essere sufficiente
È un primo passo, ma potrebbe non bastare. Come ha spiegato Jani Ihalainen, avvocato specializzato sui diritti d’autore, alla BBC: "La legislazione attuale non è neanche lontanamente adeguata per affrontare i deepfake e i potenziali problemi in termini di proprietà intellettuale e altri diritti". Anche Tony Rigg, docente e consulente dell'industria musicale, ha messo in evidenza le criticità dei vifro deepfake: "Forse l'aspetto più preoccupante di questo caso è l‘indebolimento dei diritti morali. Se qualcuno può imitare te, il tuo marchio, il tuo suono e il tuo stile, potrebbe diventare tutto molto complesso".