Quello che succede nel primo episodio del nuovo Black Mirror è davvero possibile?
Se hai visto il primo episodio di Black Mirror te lo sei chiesto: ma è possibile? In Joan is Awful, Joan è terribile, la protagonista (Joan) è una giovane donna con due ciuffi biondo platino, una relazione insipida, e un ex spumeggiante ma inaffidabile che le solletica la nostalgia. Lavora in una Big Tech patinata dove si limita a criticare il caffè e licenziare personale, poi la sua routine viene spezzata quando accende Streamberry (alias Netflix, stessi colori, stessa interfaccia, stesso suono d’accensione), sullo schermo appare una nuova serie interpretata da Salma Hayek. Si chiama Joan is Awful e l’attrice ha gli stessi ciuffi biondi di Joan. Non solo quelli, è la riproduzione in tempo reale della sua vita in formato serie tv.
La tecnologia è complice di questa perversione voyeuristica. Le informazioni di Joan sono raccolte da smartphone e pc intorno a lei, l’intero film realizzato con l’intelligenza artificiale deepfake sintetizzata da un computer quantistico a metà tra una divinità e uno strumento di morte. E Streamberry può realizzare tutto questo perché Joan al momento dell'iscrizione ha acconsentito al trattamento dei dati, come tutti, senza leggerlo. La tecnologia protagonista in Joan is Awful non ci è estranea, la conosciamo già. È però esasperata come il codice di Black Mirror comanda. Ma, al di là della provocazione, quello che succede nel primo episodio è possibile con gli strumenti che abbiamo oggi? Lo abbiamo chiesto a Stefano Zanero, professore di Sistemi Di Elaborazione Delle Informazioni al Politecnico di Milano, esperto in cybersecurity.
Gli sceneggiatori di Hollywood stanno scioperando perché hanno paura che l’IA prenda il loro posto, come nell’episodio Joan is Awful. Sta già succedendo e non ce ne accorgiamo?
Allora non quello che succede nell’episodio, ma è normale Black Mirror presenta futuri possibili estremizzando tratti del nostro presente, quello che sta succedendo però è che l’intelligenza artificiale generativa, come ChatGPT, ma anche altri programmi in grado di generare video e immagini, riescano a creare prodotti di qualità. E questa è una minaccia nuova, perché il settore dei creativi si è sempre sentito protetto dal progresso delle mansioni automatizzate, e ora si trovano ad affrontare una tecnologia che sa fare anche il lavoro creativo. Ora l'intelligenza artificiale generativa non riesce a creare un grande film d’autore ma un cortometraggio pubblicitario sì.
Il Quamputer di Black Mirror è una specie di divinità, nemmeno i protagonisti sanno come funziona, lo dice proprio Mona Giavadi, la Ceo di Streamberry, saranno così i computer quantistici del futuro?
No quella è la parte più inverosimile dell’episodio. Al momento non sappiamo ancora costruirne uno, non abbiamo proprio a disposizione la tecnologia per realizzarlo, ma sappiamo già cosa saranno in grado di fare. Semplificando possiamo dire che un computer quantistico riuscirà a fare operazioni molto complicate in modo molto veloce.
Ma non potranno generare film in automatico.
Direi di no, quello è il campo di applicazione più lontano. Faranno ricerche in modo molto veloce, accelereranno gli algoritmi di machine learning, potranno elaborare quantità di dati maggiori in tempi minori, ma non fare un film in simultanea con la realtà.
Nell’episodio è chiaro anche il problema del consenso e del trattamento dei dati. Con le autorizzazioni che diamo già adesso schiacciando "accetta" sui termini di condizioni potrebbero già fare una serie su di noi?
Non penso che sarebbe possibile realizzare una serie tv personalizzata a partire dai nostri dati, anche perché avrebbe diverse implicazioni legali che nessun servizio di streaming credo vorrebbe affrontare. È vero, non vengono usati per serie tv però le nostre informazioni vengono costantemente utilizzate per fornire servizi, creare pacchetti vendita, o mandare messaggi pubblicitari.
Oggi cosa possono fare le Big tech con i nostri dati che raccolgono?
Come dicevamo non costruire una serie tv, ma la prima puntata di Black Mirror fa riflettere su due aspetti. Il primo è che non sappiamo cosa abbiamo accettato quando è stato fatto l’abbonamento Netflix. Il secondo ci invita a pensare sui dati che i dispositivi raccolgono su di noi. Per esempio come è possibile che il nostro smartphone banalmente ci proponga la strada più breve per tornare a casa quando usciamo dall’ufficio alle 18.
E come è possibile?
Lo ha imparato sulla base dei nostri comportamenti. Da un certo punto di vista siamo noi a chiederlo e ci è anche utile. Quando apriamo il navigatore e ci indica il traffico in città, ci riesce perché monitora i dispositivi degli altri utenti, raccoglie costantemente dati sui nostri spostamenti. È uno scambio che accettiamo quando consentiamo di utilizzare i nostri dati a un’app. Non è la stessa cosa è comunque molto meno inquietante rispetto alla serie di Black Mirror, ma fa riflettere.
Però nessuno di noi legge il trattamento dei dati, è così rischioso non farlo?
Leggere tutti i contratti che noi accettiamo per utilizzare servizi è infattibile, però per esempio quando stiamo firmando un consenso di trattamento, leggere che cosa stiamo concedendo e a che fine, forse non è così lungo e andrebbe fatto.
Sempre in Black Mirror Joan arriva a spaccare il Quamputer perché non può revocare il consenso per il trattamento dei dati. Noi possiamo invece o dovremo romperne uno?
In generale possiamo sempre revocare il consenso, viene spiegato nel GDPR, il regolamento generale per il trattamento dei dati europeo. E poi alcuni utilizzi sarebbero illegali anche se noi dessimo il consenso senza accorgercene.
Poi c’è anche la tecnologia deepfake, riesce già a creare copie virtuali estremamente verosimili, penso alle immagini di Papa Francesco, quando riuscirà a realizzare da zero un film?
Da zero un film ci vorrà tempo, sono già performanti e riescono a creare dei cortometraggi ben fatti. Il problema non è tanto il lato tecnico. L’intelligenza artificiale generativa infatti funziona per giustapposizioni, più allunghi un filmato più è alto il rischio che commetta errori logici, e che quindi si capisca che non c’è dietro una mente umana.
Se un attore cedesse i diritti a un'azienda, potrebbero persino usare la sua immagine per farlo defecare in una Chiesa?
Beh in teoria sì, nella pratica credo ci sarebbero talmente tante pagine di contratti firmati dagli attori che poi risulterebbe non pubblicabile. Però se ci pensiamo, quella scena che a noi suscita ribrezzo per l’IA altro non è che una parte del film perché non ha una percezione, semanticamente è una scena assurda magari. Se io scrivessi il prompt per generare per esempio l’immagine di un personaggio famoso che defeca, se non ci fossero i filtri del software, l’IA non avrebbe problemi a generarla.
I social funzionano già con la personalizzazione dei contenuti per esempio il For You, ma anche su Netflix o Prime c’è il “consigliato per te”. In Joan is Awful si immagina uno streaming cucito addosso agli spettatori, ma non sta già succedendo?
Sì sta sicuramente già succedendo, ma la personalizzazione all’interno del contenuto è ancora un’altra cosa che potrebbe arrivare nel futuro. Aprirebbe potenzialmente il campo a una serie di cose interessanti e divertenti, ma come qualsiasi espansione artistica commerciale può portarsi dietro i suoi problemi.
Netflix ha dato la possibilità di creare la propria versione dei Joan is Awful, con la propria immagine e il proprio nome. Ci sono anche una serie di condizioni da accettare. Le leggerà?
Sì ma sarà sicuramente o un inside joke, e quindi ci sono scritte cose terribili per poi dire che è tutto uno scherzo, oppure sarà a prova di bomba, ci avranno pensato bene prima di scriverlo.