Ora Instagram etichetta le foto reali come se fossero generate con l’IA: abbiamo un nuovo problema
Pete Souza è stato il fotografo ufficiale della Casa Bianca per Ronald Regan e Barack Obama. Nel 2011 ha scattato la famosa fotografia nella Situation Room, la stanza dove i vertici del governo americano hanno seguito da lontano il raid che ha portato all'uccisione di Osama Bin Laden. Un'immagine piena di tensione, che riprende dal vivo un momento che ha fatto la storia. Insieme a queste, centinaia di altri suoi scatti sono diventati famosi.
Non ci si aspetterebbe mai che un fotografo di questo calibro possa usare l'intelligenza artificiale per realizzare l'immagine di una partita di basket avvenuta 40 anni fa. E infatti non è andata così. Eppure, sul post Instagram campeggia l'etichetta "Creata con l'IA". Per Meta non ci sono dubbi: non è una vera foto.
Cosa è successo con l'etichetta "Creato con l'IA" di Meta
Pete Souza è in buona compagnia. Su altri account Instagram è comparsa l'etichetta incriminata, anche in casi che non hanno nulla a che fare con il fotogiornalismo. Per esempio, le illustrazioni a matita pubblicate su Instagram dall'artista Kyle Webster sono state contrassegnate in massa come generate dall'IA anche se sono frutto del suo lavoro manuale. E anche la foto dei Kolkata Knight Riders, la squadra di cricket indiana che alza al cielo il trofeo vinto in occasione della Indian Premier League, è segnalata come finta.
L'immagine di una ragazza in cosplay mentre corre? Anche quella creata con l'intelligenza artificiale. "Fantastico, quindi il mio cosplay realizzato con il lavoro fisico delle mie mani è stato etichettato come contenuto generato dall'IA su Instagram e non ho nessuna maniera per correggere questo tag". Un errore o un bug che può costare caro a diversi artisti.
Qual è la possibile spiegazione del bug di Meta
A febbraio è arrivata al tanto desiderata etichetta che segnala quando un'immagine è generata con l'intelligenza artificiale. Una scelta che si è resa necessaria a causa del proliferare di immagini così realistiche da sembrare vere, ma soprattutto un modo per arginare la diffusione di disinformazione. Il suo funzionamento dovrebbe essere semplice: sono gli utenti a segnalare manualmente che l'immagine è generata con un'IA, oppure è un algoritmo di Meta a farlo in automatico. La macchina che rivela il lavoro di un'altra macchina.
Per potere "beccare" l'autore artificiale, i sistemi Meta devono leggere fra i metadati dell'immagine e verificare se è presente un certificato C2PA. Si tratta di una "firma digitale" che marchia a fuoco i file che sono creati con l'IA. Non tutte le aziende che forniscono generatori di immagini con intelligenza artificiale, però, aderiscono al progetto. E chi non fa parte del sistema, potrà fare circolare le proprie foto finte senza che siano contrassegnate.
Per questo motivo, non è difficile immaginare che l'algoritmo di Meta vada a caccia anche di altri segnali, oltre al certificato C2PA, per controllare se un'immagine è vera o meno. Per esempio, eventuali manipolazioni con programmi di grafica. Una modifica al colore, alla luminosità o alla definizione di una foto, però, non significa che sia stata creata grazie a un'IA.
Per esempio, nel caso della foto scattata su pellicola da Pete Souza a una partita fra Celtics e Lakers, potrebbe essere stato un problema di forma, nel senso letterale. Rispondendo al sito TechCrunch, il fotografo americano ha spiegato di avere ritagliato l'immagine digitalizzata con un programma di Adobe e di averla poi "appiattita" prima di salvarla in formato jpeg. Questo sembra avere fatto scattare l'algoritmo di Meta, che ha così etichettato la foto come finta.