E se i politici stessi fossero sottoposti al riconoscimento facciale? I dati sono pieni di errori
L’effetto è quello delle figurine panini. Sul portale Data Face sono apparse le foto degli eurodeputati, con tanto di catalogo. Genere, età e stato d’animo vengono infatti stabiliti in percentuale da un algoritmo. Alcuni sono più uomini di altri (98%) altri meno (70%), c’è chi è neutro o felice, e le date di nascita di ognuno non corrispondo alla realtà sono una scommessa dell’algoritmo. D’altronde è questo che fa il riconoscimento biometrico: osserva, elabora, cataloga. Ma non solo. “Il riconoscimento discrimina, viola la privacy, e la libera espressione”, a parlare è Martina Turola di The Good Lobby, che insieme alle associazioni per i diritti digitali, Hermes Center, e info.nodes ha lanciato Don't Spy EU: “La campagna con cui simulano il riconoscimento facciale degli europarlamentari, una provocazione per convincerli a vietare le tecnologie di sorveglianza”.
Oggi le Commissioni Giustizia e Mercato Interno del Parlamento Europeo hanno dato il primo via libera all'AiAct, il documeno in cui l'Unione Europea proverà a fissare le sue regole per l'intelligenza artificiale. Al momento le due commissioni hanno deciso di vietare ogni utilizzo delle tecnologie basate sul riconoscimento facciale nei luoghi pubblici nell'Unione europea. Ma il dibattito su come usare il riconoscimento facciale nei luoghi pubblici è ancora aperto, tanto che l'ultimo a proporla è stato il ministro dell'Interno Matteo Piantedosi in un'intervista al Quotidiano Nazionale ha dichiarato. Una tecnologia che con il tempo può diventare rischiosa, come Martina Turola ha spiegato a Fanpage.it.
Come nasce Don't Spy EU?
La campagna nasce perché è in corso la discussione sul regolamento europeo per capire cosa succederà con il riconoscimento biometrico. Siamo in un momento chiave perché a seconda di cosa verrà deciso si capirà se questa tecnologia verrà utilizzata o meno in Europa. Così abbiamo pensato di creare questo progetto per tutelare i nostri diritti e creare consapevolezza su un tipo di sorveglianza che mette a rischio i principi dell’Unione europea.
Mi spieghi come funziona nella pratica?
Si è una provocazione, praticamente sul sito è possibile simulare il riconoscimento biometrico degli europarlamentari. Attraverso un algoritmo vengono analizzate le loro immagini pubbliche e viene assegnato a ciascuno genere, età e “stato emotivo”. In questo modo cerchiamo di evidenziare il margine di errore e di approssimazione di queste tecnologie.
E ci sono già state delle storture che lo dimostrano.
Certo, moltissime. Il riconoscimento facciale commette moltissimi errori. Se non sei un uomo bianco occidentale, rischi di non essere riconosciuto correttamente dagli algoritmi e in alcuni casi anche essere arrestato ingiustamente. Sono tanti gli esempi preoccupati, tra questi c’è anche il riconoscimento biometrico utilizzato per profilare i manifestanti di Black Lives Matter e qui nasce un secondo problema.
Il riconoscimento facciale come deterrente.
Sì, perché se io so che posso essere riconosciuto e che poi la polizia mi rintraccia e viene a casa mia, cosa che appunto è successa negli Stati Uniti, io non vado più a manifestare per paura, e questo va a limitare la libertà di espressione.
Ritornando a Don’tSpy Eu, parte da tre associazioni ma è aperta a tutti, come funziona?
Per rappresentare il mercato della sorveglianza, abbiamo deciso di coinvolgere altri sviluppatori a raffinare l’algoritmo di riconoscimento per sottolineare i potenziali usi discriminatori. Stiamo anticipando l'arricchimento del mercato biometrico per montare tutti i rischi. Si può chiedere all'algoritmo di definire anche l’etnia o la religione di una persona, se il software vede un uomo arabo dirà che è musulmano anche se non è detto che lo sia ed è pericoloso.
E invece la sfida a premi per i DeepFake?
Non è detto che i programmi riescano a riconoscere le immagini finte da quelle vere, quindi è anche possibile che davanti a una foto falsa prodotta con l’intelligenza artificiale il software la riconosca come reale. E questo può avere conseguenze pericolose. Per veicolare questo messaggio abbiamo creato una sorta di gara dove i primi due deepfake più originali vincono rispettivamente 200 e 100 euro.
Quindi ricapitolando, gli obiettivi di Don’t Spy Eu?
Cerchiamo per prima cosa di indurre gli europarlamentari a riflettere sul voto che saranno chiamati a esprimere, e per questo abbiamo selezionato i loro volti da sottoporre al riconoscimento biometrico. E poi vogliamo anticipare e far comprendere ai cittadini europei tutti i problemi connessi alla tecnologia in spazi pubblici.
L'Italia a che punto è?
Allora l’Italia è a un punto cruciale perché c’è una moratoria che vieta ai privati l’uso del riconoscimento biometrico fino al 2023. Per l’uso pubblico serve l’autorizzazione preventiva del Garante della privacy e fino ad ora l’ha sempre vietata, questo è un segnale positivo. Da gennaio 2024 però dato che scade la moratoria se non viene approvato regolamento europeo l’Italia potrebbe usare il riconoscimento biometrico.
Soprattutto perché il ministro Piantedosi ha dichiarato di volerlo utilizzare per migliorare la sicurezza.
Eh, certo, per noi sono dichiarazioni che fanno ravvisare un pericolo e che rendono ancora più importante sensibilizzare su questo tema. Anche perché le società che vendono questi software si stanno già muovendo a livello commerciale. In città sono già stati sperimentati, insomma in un momento del genere, con il governo a favore è ancora più cruciale far capire cosa significhi applicare il riconoscimento biometrico per le strade.