Usa l’IA per sistemare una foto ma cancella la sua sedia a rotelle, Valentina: “Non sono qualcosa da correggere”
“Ho visto quest’app, Remini, diventata virale sui social. Genera diverse immagini partendo da una tua foto, io l’ho caricata e poi ho premuto su genera. Il risultato è stato agghiacciante”. A parlare è Valentina Tomirotti, giornalista e attivista del mondo disability, “io ho una disabilità fisica e motoria evidente, sono in carrozzina” eppure l’intelligenza artificiale ha cancellato tutto, normalizzando il suo corpo. Remini promette "di trasformare le tue foto vecchie, sgranate, sfocate o danneggiate in immagini ad alta qualità solo con un tap!", si legge nella descrizione sull'App Store. Eppure è andata ben oltre.
“Nelle foto che ha generato ha eliminato completamente la mia disabilità e la mia conformazione fisica", ha spiegato Tomirotti a Fanpage.it. “Non solo, io non sono filiforme eppure l’intelligenza artificiale mi ha fatto magrissima”. Il caso Tomirotti è un punto di partenza per ragionare su un’intelligenza artificiale che schiaccia i corpi dentro standard di bellezza pericolosi. Un’intelligenza artificiale che non solo non è inclusiva ma che cancella la disabilità. “Mi ha “aggiustata”, ha eliminato ogni segno di ciò che sono, come se la mia realtà fosse un’anomalia da correggere.”
I rischi di un’intelligenza artificiale che discrimina
“Io non ho problemi con la mia immagine”, ha sottolineato Tomirotti, “ma l’intelligenza artificiale che cancella o normalizza la disabilità è estremamente pericolosa”. Lo è a due livelli: personale e sociale. “Immaginiamo una persona che non si piace, che fatica ad accettarsi che ha magari una disforia, quindi una percezione distorta di sé, e vede che l’IA crea una versione normalizzata. Pensa se questa persona ha una disabilità, che danni può fare…”.
Come spiega Tomirotti l’intelligenza artificiale che “aggiusta”, smagrisce, cancella sedie a rotelle, o normalizza le proporzioni degli arti va ad alimentare possibili disturbi, ma anche semplici paure. Timori pompati da una società che non è inclusiva, e qui arriviamo al secondo livello. “La disabilità non è raccontata, anzi direi che viene nascosta a livello sociale, e non abbiamo bisogno di un’IA che vuole cancellare le sedie a rotelle”.
Il peccato originale dell'algoritmo
Il peccato originale ha radici antiche. Da un lato l’algoritmo è stato addestrato per generare corpi normalizzati, spesso sessualizzati (soprattutto quelli delle donne) all’altro è stato alimentato da immagini provenienti dal web, la maggior parte impregnate di bellezza stereotipata. Un’ulteriore dimostrazione di una società che nasconde la disabilità. Quello dell'IA è solo l'ultimo effetto collaterale.
“È la dimostrazione di un immaginario collettivo che ancora fatica ad accettare la diversità. Un algoritmo non fa che riflettere i pregiudizi di chi lo ha creato. E se oggi l’AI relega la disabilità all’invisibilità, cosa ci dice questo sul mondo che stiamo costruendo?”, denuncia Tomirotti sui social. “Io non ho bisogno di essere ritoccata per esistere. La mia immagine reale non è un errore. Forse, più che cambiare i volti nelle foto, dovremmo cambiare lo sguardo con cui vediamo il mondo.”