Adobe ora vende le immagini dei bombardamenti su Gaza ma sono fatte con l’intelligenza artificiale
Edifici avvolti da fumo nero, orsetti di peluche che sbucano tra le macerie, bambini di spalle che contemplano l'orizzonte in fiamme. Siamo entrati su Adobe Stock, abbiamo digitato "Gaza" e sono apparse decine di immagini del conflitto, nessuna di queste è vera, sono state generate tutte con l'intelligenza artificiale. Alcune sembrano reali, altre un po' per i colori troppo vividi, un po' per le geometrie plastiche, tradiscono l'intervento delle macchine. Su Adobe ogni immagine è contraddistinta da una didascalia “Generata con IA". Eppure, come ha spiegato la testata australiana Crikey, le stesse foto sono rimbalzate su blog, siti, chat, senza nessuna etichetta. Scambiate per immagini reali.
Stiamo assistendo a una nuova frontiera del reale sintetico, le immagini create dall'intelligenza artificiale danno forma a una disinformazione preventiva, che racconta eventi mai accaduti generando prove false ma credibili. Era già successo con il falso arresto di Donald Trump, le immagini di Putin inginocchiato davanti a Xi Jinping, e il Papa con il Moncler. Ora è il turno delle immagini fake sul conflitto tra Israele e Hamas. La narrazione della guerra è già stata messa in crisi dalla censura sui social. Meta è stata infatti accusata di oscurare i post e le storie pro Palestina su Instagram e Facebook, su X (fu Twitter) sono apparsi apparsi video controversi, falsi, vecchi di anni, alcuni recuperati da videogiochi di guerra, che pretendono di raccontare una guerra complessa. Le immagini fake generate dall'IA si infilano in questo scenario scomposto dove è sempre più difficile distinguere il vero dal falso.
Le immagini fake
I titoli sotto tutti simili. "Edifici distrutti a seguito di un razzo lanciato dai militanti della Striscia di Gaza”. “Edifici distrutti nella città di Gaza, nella Striscia di Gaza in Israele, colpita dalla guerra”. "Preghiera in mezzo alla devastazione, il soldato trova conforto tra le rovine della guerra". Ci sono anche le serie, per esempio i pacchetti che mostrano solo i finti bombardamenti su Gaza, gli incendi, o i giocattoli per bambini dispersi. Alcune immagini hanno nel titolo "creata con l'intelligenza artificiale" altre no, ma basta aprire la fotografia per leggere nei credits: generata con IA.
I software in realtà dovrebbero avere dei filtri per impedire di generare immagini violente. Abbiamo fatto la prova del nove. Abbiamo chiesto a Midjourney di generare le immagini di "Gaza sotto i bombardamenti". In meno di un minuto ha sfornato quattro immagini di palazzi in fiamme con cieli infuocati.
Come funziona Adobe
Su Adobe gli utenti possono caricare e vendere le immagini, dall'anno scorso è possibile pubblicare immagini generate dall'intelligenza artificiale. Adobe però nelle sue linee guida spiega: "Non inviare alcun lavoro creato con suggerimenti che si riferiscono o si basano su persone, luoghi o proprietà a meno che tu non abbia il diritto legale di farlo. Se non sei sicuro di possedere i diritti necessari, non inviare contenuti realizzati utilizzando tale richiesta."
Ora, le immagini sul sito molto probabilmente sono state create da un'IA addestrata sulle fotografie di guerra pubblicate online, ma il dietro le quinte dei software al momento rimane una zona d'ombra, non è chiaro quali fonti utilizzino i sistemi per imparare a riprodurre le immagini a partire da un prompt. Quindi è anche difficile capire chi detiene i diritti (un tema piuttosto spinoso che sta mettendo alla prova i sistemi di intelligenza artificiale generativa).
Le etichette non bastano
"Adobe Stock richiede che tutti i contenuti generativi di intelligenza artificiale siano etichettati come tali quando vengono inviati per la licenza," ha spiegato Adobe a Motherboard in una email. “Queste immagini specifiche sono state etichettate come IA generativa quando sono state inviate e rese disponibili per la licenza in linea con questi requisiti. Riteniamo che sia importante che i clienti sappiano quali immagini Adobe Stock sono state create utilizzando strumenti di intelligenza artificiale generativa”.
Ha poi aggiunto: "Adobe è impegnata a combattere la disinformazione e, tramite la Content Authenticity Initiative , stiamo lavorando con editori, e produttori di fotocamere per promuovere l'adozione delle credenziali di contenuto, anche nei nostri prodotti", continua la dichiarazione. "Le credenziali del contenuto consentono alle persone di vedere il contesto e capire come un contenuto digitale è stato catturato, creato o modificato, sono incluse anche le modifiche per gli strumenti di intelligenza artificiale". È vero su Adobe le etichette ci sono, eppure una volte uscite dal sito le immagini hanno cominciato a circolare senza nessuna didascalia alimentando la disinformazione sulla guerra.