Abbiamo insegnato all'intelligenza artificiale come si respingono i migranti ai confini europei. Lungo le frontiere il progresso tecnologico è diventato alleato delle politiche sovraniste (e non) che le vogliono fortificare e militarizzare, per impedire a coloro che stanno dall'altra parte di oltrepassarle. Non solo, abbiamo ammaestrato meccanismi di decisione automatici e algoritmi a essere potenzialmente discriminatori nell'esaminare le richieste di protezione internazionale. In uno scenario di avanzamento tecnologico verso aree dove spesso leggi e regole non sono ancora arrivate, le persone migranti, soprattuto quelle sprovviste di documenti, rischiano di non vedersi riconoscere i propri diritti digitali al pari di tutti gli altri cittadini. E rimanere, ancora una volta, vittime di marginalizzazioni e soprusi. L'Artificial Intelligence Act, di cui sta discutendo l'Unione europea, è un primo passo affinché ciò non accada: ma perché sia efficace, deve premettere una presa di coscienza su come i nuovi strumenti di intelligenza artificiale sono stati disegnati per avallare xenofobia e razzismo.
No, la tecnologia non è neutrale. Non lo è mai stata. Gruppi politici, sociali ed economici dominanti ne hanno da sempre modellato gli usi per mantenere in piedi percezioni e abitudini utili ai propri interessi. L'idea delle migrazioni come un problema di sicurezza, come una minaccia da cui difendersi, è esattamente questo: e si dimostra utile, per una fetta di classe dirigente, in quanto capro espiatorio che distoglie attenzione e frustrazioni da elementi che potrebbero minacciare lo status quo.
Droni e sensori per respingere i migranti al confine
In un report del 2020 delle Nazioni Unite si sottolinea come la tecnologia sia sempre parte della strategia di controllo dei confini e delle rotte migratorie. Tanto i processi quanto vere e proprie infrastrutture vengono costruiti per interagire con, ad esempio, analisi predittive supportate dall'intelligenza artificiale, droni per la videosorveglianza, sistemi di riconoscimento facciale, sensori del terreno e banche dati biometriche. Tutte queste tecnologie diventano parti integrate dei regimi di frontiera e vengono utilizzate per controllare la mobilità di diversi gruppi di migranti.
Ma concretamente, come funzionano?
Pensiamo al pattugliamento dei confini esterni dell'Unione europea. Dalla crisi dei rifugiati seguita alle Primavere Arabe si è intensificata una criminalizzazione delle migrazioni che ha portato a militarizzare ed esternalizzare le frontiere dell'Ue, in primis quella del Mar Mediterraneo, cercando di allontanare e mandare indietro i migranti prima che raggiungano il confine. Proprio nel Mediterraneo viene utilizzato un sistema, chiamato Eurosur (European Border Surveillance System), che utilizza big data e droni di sorveglianza per prevedere, controllare e monitorare i flussi migratori. Questo, però, non viene impiegato ad esempio per prevenire i naufragi, ma per notificare alla Guardia costiera libica di barconi e gommoni in movimento, in modo che possano essere intercettati e respinti verso il Paese Nordafricano. Nonostante per le Nazioni Unite questo non sia un porto sicuro. Avanzate tecnologie di tipo militare sono state utilizzate anche da Frontex per questi stessi scopi, impedendo così alle persone migranti di esercitare il loro diritto di presentare domanda di asilo in Europa.
Poligrafi e riconoscimento facciale negli aeroporti
Non accade solo via mare. Un altro strumento utilizzato dall'Unione europea, che lo ha inserito nel suo programma Horizon 2020, si chiama iBorderCtrl (Intelligent Portable Border Control System). Ufficialmente il suo obiettivo è quello di "permettere un controllo più veloce e approfondito per i cittadini di Paesi terzi che attraversano i confini di terra degli Stati membri dell'Unione europea". Di fatto, utilizza hardware e software per automatizzare la vigilanza delle frontiere, ad esempio rimpiazzando agenti e funzionari negli aeroporti o ai checkpoint con telecamere di riconoscimento facciale e poligrafi usato per identificare individui potenzialmente pericolosi. Il tutto in processi estremamente opachi, dove la garanzia dei diritti individuali viene compromessa. Si tratta di una tecnologia in fase di sperimentazione, testata ai confini Ue tra il 2016 e il 2019, che però se non prontamente circoscritta rischia di normalizzare pratiche dannose e discriminatorie.
L'intelligenza artificiale può esaminare le domande d'asilo?
L'utilizzo di tecnologie di intelligenza artificiale non si limita alla sorveglianza dei confini, ma riguarda anche i delicati processi di esame delle richieste di asilo. Organizzazioni che si occupano della difesa dei diritti umani hanno ad esempio denunciato l'uso di strumenti di analisi dei movimenti facciali e di riconoscimento delle emozioni per individuare se la persona a cui si stanno facendo delle domande stia mentendo, nonostante questi dispositivi siano suscettibili a pregiudizi e interpretazioni errate. Le espressioni possono variare a seconda del contesto, della cultura, del soggetto: l'intelligenza artificiale è stata sviluppata per riconoscere uno standard arbitrariamente imposto, non un intero spettro umano. Basare l'esito di una domanda di asilo su una tecnologia di questo tipo è quindi altamente pericoloso e discriminatorio.
Lo stesso discorso vale per l'utilizzo dei sistemi di riconoscimento linguistico, impiegati ad esempio per determinare se il dialetto di un richiedente asilo corrisponde alla regione da cui dice di provenire, un'informazione fondamentare per l'esito positivo o meno della domanda di protezione internazionale. Sono software che non rappresentano tutte le parlate e inflessioni linguistiche, lasciando così alcune più vulnerabili all'errore, arbitrariamente deciso da un algoritmo, di non essere credibili.
Intervista con Alyna Smith, vicedirettrice di Picum
"In alcuni Stati membri dell'Unione europea l'AI viene usata per testare la credibilità delle persone che fanno richiesta di asilo. Ad esempio se una persona dice di provenire da una particolare regione del Mali, si utilizzerà un software per verificare che il suo dialetto corrisponda a quello associato a quel territorio. L'informazione che darà quel software sarà poi utilizzata per stabilire se la persona che fa richiesta di asilo sia attendibile e ciò avrà un impatto considerevole sull'esito della sua domanda", ha spiegato a Fanpage.it Alyna Smith, vicedirettrice di Picum (Platform for International Cooperation on Undocumented Migrants), una rete di organizzazioni che si occupa di giustizia sociale e diritti umani in ambito migratorio.
Per poi sottolineare un altro aspetto inquietante e problematico dell'utilizzo dell'intelligenza artificiale nel contesto migratorio, che riguarda l'enorme quantità di dati che viene raccolta da queste tecnologie: "Stanno creando un gigantesco deposito centralizzato di milioni di documenti e dati che riguardano le persone migranti. Che non vengono utilizzati per distinguere le necessità di diverse popolazioni o per comprendere meglio in che modo aiutarle. Al contrario, vengono utilizzati per prevedere chi potrebbe restare in un Paese anche oltre la scadenza del visto, o chi potrebbe creare più facilmente problemi di ordine pubblico".
Cosa cambierà con l'AI Act dell'Unione europea
Utilizzi di questo tipo di tecnologie di intelligenza artificiale, tanto discriminatori e distorti quanto allarmanti, potrebbero essere circoscritti con il nuovo AI Act. Il via libera in commissione al Parlamento europeo della proposta di regolarizzare gli usi di questa tecnologia è sicuramente un primo passo, ma la strada è ancora lunga. "Da un lato siamo molto contenti del voto nelle commissioni, perché il Parlamento europeo ha mostrato coraggio nel prendere una posizione così netta. È importante il fatto che siano stati banditi alcuni usi dell'intelligenza artificiale, come il riconoscimento facciale o le identificazioni biometriche. Allo stesso tempo abbiamo ancora dubbi, avevamo chiesto di includere altri divieti specificatamente collegati alle migrazioni e al tentativo di predire i comportamenti delle popolazioni nel tentativo di creare modelli e di usare queste tecnologie per respingere le persone", ha concluso Smith.