Pesce d’aprile dell’intelligenza artificiale, le foto (realistiche) delle teorie del complotto
Elvis è fuggito alle Hawaii ed è ancora vivo, nessuno è sbarcato sulla Luna nel 1969, e chi può dimenticare “Il segreto più nascosto” di David Icke, il monumentale racconto dei rettiliani guidati da re Carlo III. Le teorie del complotto non muoiono mai. Si modellano sulle epoche, trovano nuovi seguaci, e proliferano soluzioni semplici a problemi difficilissimi. La ricetta è sempre la stessa, ora però c’è un nuovo pane capace di sfamare le bocche del complottisti.
Fino a poco fa altro non era che una piccola società che resisteva agli angoli di Discord, poi Midjourney si è trasformata nella fabbrica capace di produrre di tutto, anche immagini false che sembrano vere. E così sono apparse le foto dell’arresto di Donald Trump, il Papa con il piumino Moncler, e anche Vladimir Putin inginocchiato davanti a Xi Jinping. Tutte immagini fake, ma sui social c’è chi ha creduto fossero reali. In questi giorni abbiamo testato il software per capire meglio come funziona. Abbiamo studiato, e siamo riusciti a generare immagini verosimili parlando la lingua dell’intelligenza artificiale generativa. Ispirandoci alle più celebri teorie del complotto abbiamo chiesto a Midjourney di generare prove (finte), in occasione del primo di aprile. Sono sempre circolate sul web, dai fotomontaggi posticci ai video contraffatti con errori dichiarati. Anche l'IA sbaglia, certo, ma le imperfezioni sono meno evidenti a un occhio che non sa dove guardare. Con il progresso tecnologico sarà sempre più difficile capire cosa è vero e cosa e falso. E questo è solo l'inizio.
Come abbiamo creato le immagini false
Per creare contenuti realistici serve prima di tutto conoscere il gergo fotografico. Quindi non basta scrivere “Re Carlo rettiliano”, nemmeno “Ritratto di Re Carlo”, è necessario inserire la lunghezza focale, il diaframma, la tipologia di luci, la marca della camera. Poi l’intelligenza artificiale è come un bambino, è necessario spiegarle ogni cosa, usando un linguaggio semplice, ricco di ripetizioni, e senza troppe subordinate. Bisogna dare più riferimenti possibili.
Funziona solo con personaggi o luoghi famosi, perché si nutre delle immagini che raccoglie sul web, più materiale c’è a disposizione più l’IA è in grado di riprodurre immagini fedeli all’originale. Per esempio non ha riconosciuto Chiara Ferragni, o Lady Gaga. I prescelti sono Elon Musk, re Carlo III, Joe Biden, Donald Trump, il Papa e Vladimir Putin. Infine sul risultato gioca anche la variabile fortuna, lo stesso prompt a volte funziona altre no. Con Midjourney bisogna essere perseveranti.
I trucchi per scoprire l'intervento dell'IA
Più diventa brava più fa paura. Il software dopo l’aggiornamento del 15 marzo ha aggiustato anche alcuni difetti che tradivano l'intervento dell’IA. Sbaglia ancora, per esempio non è in grado di riprodurre scritte o loghi, deforma ancora le mani e le espressioni facciali spesso risultano plastiche, ma sono difetti che possono sfuggire a un occhio non allenato. Proprio per questo le immagini sui social sono diventate virali.
L’intelligenza artificiale generativa offre i mezzi per una disinformazione preventiva, crea le prove per fatti che non sono mai accaduti. A rafforzare lo sguardo ci sono poi i bias ideologici che spingono sui sentimenti forti, inibiscono i meccanismi razionali e sull’onda dell’entusiasmo scambiamo il falso per vero. Martedì 28 gennaio, la società ha interrotto le prove gratuite a causa delle "richieste straordinarie e abusi nelle prove", ha scritto David Holz, Ceo dell'azienda, su Discord, spiegando anche che gli utenti senza abbonamento stavano esasperando la tecnologia e che le "nuove misure di sicurezza per evitare gli abusi non sembrano essere sufficienti".