Stiamo entrando in un’era in cui le immagini valgono come le parole, e cioè molto poco
Una donna guarda verso la camera. Ha lunghi capelli lisci e scuri e due labbra ancora più scure. Ha un occhio con una pupilla tonda e l’altro con una pupilla che disegna una feritoia. Tutto il viso è coperto da un pelame folto, a macchie. La bocca e il naso sono circondate da lunghe vibrisse. É una donna gatto, una fotografia pubblicata nel 1932 da Wanda Wulz, fotografia triestina. Il nome dell’opera è un Io + Gatto e l’immagine è uno dei primi esempi di fotoritocco. Per farlo c’è voluto tempo, professione ed esperienza. E forse anche un po’ di sperimentazione. Ora la stessa foto può essere creata in una manciata di secondi da una qualsiasi intelligenza artificiale specializzata in immagini. E forse, con buona pace di Wulz, anche con effetti più realistici.
Il 22 maggio la foto di un’esplosione accanto al palazzo del Pentagono ha scatenato il panico nei mercati. Gli indici di Borsa degli Stati Uniti per qualche minuto sono crollati, bruciando miliardi di dollari di investimenti. L’immagine era stata creata con l’intelligenza artificiale. Da una prima ricostruzione si può vedere come l’autore non sia stato nemmeno attento all’utilizzo di tutti quegli accorgimenti necessari per rendere più realistiche le immagini create dall’intelligenza artificiale. Una pattuglia di account con la spunta blu ha fatto su Twitter ha fatto il resto, d'altronde la spunta blu si può comprare ormai per otto dollari al mese.
Come è cambiato il valore di un’immagine
Vi fidereste mai di un testo anonimo? Di un paio di righe scritte su Twitter che magari attribuiscono a Elly Schlein e Giorgia Meloni l’idea di sciogliere i loro partiti per crearne uno nuovo insieme? Difficile, a meno che facciate parte di quella elite di illuminati che crede anche nello scie chimiche e nella non sfericità della Terra. Ma se invece che due righe anonime, la notizia del nuovo partito a guida Schlein – Meloni fosse un’immagine? La foto di un incontro segreto fra di loro, in un luogo che doveva essere lontano dalle telecamera. Magari corredato da un audio strappato alla conversazione. Allora la notizie sarebbe più riconoscibile, avrebbe più impatto, catturerebbe meglio l’attenzione dei lettori.
Fino a qualche mese fa ci voleva un po’ di pazienza e parecchia esperienza con i programmi di montaggio per allestire tutta questa montatura. Ora bastano un paio di prompt fatti bene. Prima serviva una competenza, ora basta un’idea. Per tradurla in una foto o un messaggio vocale servono pochi minuti. Forse nemmeno. Immagini e audio, almeno quelli senza fonte, non saranno più credibili di un qualsiasi testo anonimo.
La filigrana per l’intelligenza artificiale
Esattamente come per le fake news, dovranno essere gli utenti a stare più attenti. A capire se un account sta diffondendo una fake news o una notizia vera. Ma non basta. Esattamente come per le fake news, sarà compito anche delle piattaforme su cui vengono pubblicate queste immagini capire come identificarle e segnalarle agli utenti. Un’idea c’è già: ed è quella della filigrana. Una trama invisibile che permetta a un software di riconoscere cosa è stato costruito con l’intelligenza artificiale.
In un articolo intitolato A Watermark for Large Language Models un gruppo di ricercatori dell’Università del Maryland ha teorizzato la possibilità di creare una filigrana nei testi creati da intelligenze artificiali come ChatGPT. Tutto si baserebbe su elenchi di parole, definendo degli schemi di parole che tornano in punti specifici del testo è possibile creare una serie di marchi impercettibili per gli utenti ma chiarissimi per un software. La stessa filigrana si può usare per le immagini, con gradienti diversi di colori o per gli audio, con frequenze non percepibili a un primo ascolto.