video suggerito
video suggerito
Intelligenza artificiale (IA)

Imane Khelif a petto nudo: sui social le foto false create con l’intelligenza artificiale

La verosimiglianza c’è, ma gli errori dell’IA sono evidenti. Tra questi, facce sciolte, mani goffe, scomposte, scritte simili a geroglifici e dettagli della fisionomia che non corrispondono con la realtà.
A cura di Elisabetta Rosso
2.750 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Sono finite le Olimpiadi, eppure le insinuazioni sul genere dell'atleta Imane Khelif resistono. E come spesso succede quando le accuse sono infondate, si creano prove false per avvalorarle. Nell'era dell'intelligenza artificiale (IA) è fin troppo semplice. Dopo la vittoria della pugile, sui social sono state pubblicate foto generate con l'IA, mostrano Khelif a petto nudo, il volto è il suo, il corpo invece appartiene a un uomo.

Il collage è goffo, la verosimiglianza c'è, ma gli errori dell'IA sono evidenti. D'altronde, come stanno dimostrando le elezioni presidenziali statunitensi, non è ancora il momento dei deepfake ultrarealistici (anche se per mesi abbiamo discusso su come l‘intelligenza artificiale avrebbe messo a rischio la democrazia con immagini false che sembrano vere). Al loro posto sono comparse immagini posticce, come quella di Khelif. Questi contenuti funzionano più come meme, vogliono provocare, persino divertire, e andare a rafforzare una retorica che non ha bisogno di fatti reali per trasformarsi in verità.

D'altronde le notizie false non vogliono mai cambiare convinzioni, piuttosto andare a rafforzare ideologie già radicate o intercettare qualche indeciso che scrolla i social in cerca di risposte facili a problemi difficili.

X | Il post con le foto di Imane Khelif create con l'IA
X | Il post con le foto di Imane Khelif create con l'IA

Come riconoscere le foto false create con l'intelligenza artificiale

Sembra che tutto sia partito dall’account Twitter/X “MidJourney Prompts”, come segnalato da David Puente. In un post del 24 agosto 2024 l'utente ha condiviso tre immagini della pugile create con l'IA.

Almeno al momento un occhio attento può riconoscere la natura artificiale della foto. Le immagini pubblicate sui social infatti, per quanto a un primo sguardo possano sembrare realistiche, presentano errori dell'IA abbastanza comuni.

Facce sciolte, mani goffe, scomposte, scritte simili a geroglifici e dettagli della fisionomia che non corrispondono con la realtà. Come la forma del naso o delle orecchie che sono diverse rispetto a quelle della pugile algerina. In un'immagine c'è anche la pugile che tiene in mano un cartello con sopra scritto "I'm a man", in un'altra, accanto a Khelif compare una mano da non si sa bene dove, che regge un cartellino.

Se i dettagli non bastano c'è anche la prova del nove per riconoscere le immagini fake. Sul mercato sono stati lanciati diversi software gratuiti per riconoscere un'immagine generata con l'intelligenza artificiale.

Tra questi: Ai or not, Illuminarty, Hugging face, Foto Forensics, Forensically Beta. Si può anche utilizzare molto semplicemente la ricerca inversa di immagini di Google, che permette all’utente di caricare un’immagine e risalire al suo storico online.

2.750 CONDIVISIONI
482 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views