L'intelligence militare israeliana sta utilizzando una tecnologia di riconoscimento facciale per rintracciare gli affiliati di Hamas a Gaza. Un software che però non è immune dall'errore e che ha identificato anche alcuni civili come soggetti legati all'organizzazione islamista, arrestandoli e detenendoli arbitrariamente. Lo ha rivelato un'inchiesta del New York Times, in cui viene raccontato il ruolo dell'intelligenza artificiale nella guerra in corso in Medio Oriente.
Utilizzare l'intelligenza artificiale per rafforzare la sorveglianza di massa in un territorio già sotto assedio, dove la popolazione civile è letteralmente in trappola sotto ai bombardamenti, deumanizza ulteriormente quella popolazione. Ma questa non è una novità nei territori occupati. Un anno fa Amnesty International pubblicava un report intitolato Automated Apartheid, Apartheid automatizzata, in cui denunciava come le autorità israeliane stessero utilizzando un sistema sperimentale di riconoscimento facciale, chiamato Red Wolf, per tracciare i palestinesi e automatizzare le limitazioni alla loro libertà di movimento, discriminando di conseguenza il diritto all'accesso a sanità, istruzione, lavoro e molto altro. Abbiamo parlato con Riccardo Noury per capire meglio l’impatto di Red Wolf nei territori occupati: il portavoce di Amnesty Italia ci ha spiegato che non si tratta solo di uno strumento di sorveglianza massiva, ma che per i soldati israeliani è diventato una sorta di videogame.
Il report di Amnesty International: il riconoscimento facciale che rafforza l'apartheid contro i palestinesi
Nel report di Amnesty International, pubblicato nel 2023, si racconta come funziona il sistema: "Red Wolf fa parte di una rete di sorveglianza in continua crescita che sta rafforzando il controllo del governo israeliano sui palestinesi, mantenendo in essere il sistema di apartheid. Red Wolf è utilizzato ai posti di blocco militari nella città di Hebron, nella Cisgiordania occupata, dove i volti dei palestinesi vengono scansionati e aggiunti a vasti database di sorveglianza senza il loro consenso", si legge.
Sia a Hebron che a Gerusalemme Est, questa tecnologia viene supportata da una fittissima rete di telecamere a circuito chiuso, che assicura alle autorità israeliane la possibilità di tenere sotto osservazione costante la popolazione palestinese. "Questa sorveglianza è parte di un tentativo deliberato da parte delle autorità israeliane di creare un ambiente ostile e coercitivo per i palestinesi, con l’obiettivo di ridurre al minimo la loro presenza in aree strategiche", continua Amnesty.
Noury a Fanpage: "Come i soldati israeliani tracciano la popolazione palestinese con Red Wolf"
Riccardo Noury, portavoce di Amnesty Italia, parlando con Fanpage.it, ha aggiunto: "Sistemi di questo tipo li abbiamo visti già negli anni scorsi, dal 2020, in modo massiccio a Hebron e in alcune parti della Gerusalemme occupata – ci ha raccontato – C'è un sistema chiamato Red Wolf che utilizza la tecnologia per tracciare i palestinesi, cioè abbina i volti scansionati con un enorme archivio di sorveglianza, dal quale si può evincere se le persone fotografate già risultano essere parte di questa banca dati e sono da considerare delle persone sospette".
L'archivio collegato a Red Wolf si chiama Wolf Pack: "Soprattuto nella parte di Hebron chiamata H2, in cui vivono circa ottocento israeliani e decine di migliaia di palestinesi, c'è una rete di posti di blocco attraverso i quali i palestinesi devono per forza passare: Red Wolf rileva quotidianamente i volti delle persone per poi cercare delle corrispondenze nell'archivio generale, che si chiama Wolf Pack. Questo contiene tantissime informazioni sugli abitanti palestinesi: chi sono, dove vivono, chi sono i loro familiari, se sono ricercati per ragioni di sicurezza. Quando il risultato è positivo, sul sospetto, la persona viene bloccata ai posti di blocco", ha aggiunto Noury.
C'è un problema di privacy – ovviamente, perché tutti questi dati vengono raccolti senza il consenso dei diretti responsabili – ma anche di discriminazione e limitazione della libertà di movimento: "Questo sistema scansiona dei volti a insaputa delle persone. E se poi rileva che su una certa persona vige un divieto di ingresso o di passaggio, questa viene fermata", ha detto ancora il portavoce di Amnesty Italia. Queste rilevazioni non sono sempre basate su sospetti più o meno fondati: a volte nascono da veri e propri errori della tecnologia: "Finché questo sistema si basa su un controllo, anche parziale, dell'uomo è un conto – anche se questo non è necessariamente confortante se l'uomo in questione è un soldato israeliano – ma la tendenza è quella di automatizzarlo del tutto. Con il rischio che la percentuale di errore possa essere maggiore: l'idea che un sistema possa riconoscere dei volti catalogati, basando tutto il processo su algoritmi, senza l'intervento umano, è preoccupante. Parliamo di un sistema già di per sé repressivo, se viene automatizzato non c'è nemmeno più la possibilità di riconoscere l'errore", ha continuato Noury.
Quando la sorveglianza di massa e la discriminazione diventano un videogame
Non solo. C'è una parte di questa storia ancora più inquietante, se possibile. Non solo le persone vengono discriminate attraverso tecnologie, software e algoritmi, ma per qualcuno tutto questo non è altro che un gioco. Una sorta di video game, solo che in gioco c'è la vita quotidiana di migliaia di persone: "Tutto ciò è aggravato da un elemento di crudeltà. Red Wolf è il sistema, Wolf Pack è l'archivio generale, ma poi c'è anche una app che è in dotazione a tutti i soldati e si chiama Blue Wolf. È una app con la quale dal telefono si può direttamente interrogare l'archivio centrale. Quello che ci hanno raccontato dalla Ong israeliana Breaking The Silence– una organizzazione di ex militari che raccontano questo sistema di violazione dei diritti umani da parte dell'esercito – è che ci sarebbe anche una sorta di gioco legato a questa app, che tiene conto di quante identificazioni vengono fatte. Cioè si va a guardare il numero di palestinesi registrati come sospetti per fare una classifica e vedere quali sono i battaglioni che hanno raggiunto il punteggio più alto, che i comandanti premiano. A che conclusione ci porta questo? Che i soldati sono incentivati a tenere la popolazione palestinese sotto massiccia osservazione".
L'automatizzazione delle armi: verso che futuro ci stiamo dirigendo?
Non ci sono evidenze se anche Red Wolf possa essere utilizzata a Gaza in questi mesi, ma è probabile ipotizzare che con la guerra anche questo sistema di sorveglianza sia stato intensificato. Noury è d'accordo con questa affermazione: "È molto probabile. Hebron e Gerusalemme Est sono state una sorta di sperimentazione – che è ancora in vigore – dove sono state fatte delle prove generali per un uso ancora più massiccio, come quello denunciato dal New York Times. È preoccupante che in questa carneficina ci sia una tecnologia che determina se una persona è sospetta o meno, perché questo vuol dire determinare se una persona possa essere o meno un obiettivo militare".
Da qui, il portavoce di Amnesty Italia si è soffermato sul più ampio tema dell'automatizzazione delle armi: "C'è un gigantesco problema di controllo sulla macchina da parte dell'uomo. Il tema, che ci pare lontano ma forse non lo è, è quello dell'automatizzazione delle armi: penso ai droni senza alcun controllo, che da soli individuano i bersagli e li colpiscono, ma anche ai robot killer, cioè quelle macchine che in un futuro preoccupante e distopico (ma che si avvicina) saranno usati per la gestione dell'ordine pubblico. Noi chiediamo che ci sia uno stop: una macchina con sembianze umane che gestisce l'ordine pubblico sulla base di una sua interpretazione della minaccia è preoccupante".
Il caso del poeta palestinese arrestato arbitrariamente per un errore del software
Insomma, quello che denuncia Amnesty è uno scenario allarmante, per quanto riguarda l'uso dell'intelligenza artificiale e di tecnologie attualmente sviluppate in un contesto di oppressione e bellico.
Se non Red Wolf, comunque secondo il New York Times, anche a Gaza i militari israeliani stanno usando un sistema di riconoscimento facciale per mettere in atto una sorveglianza massiva. In un primo momento questo veniva utilizzato per la ricerca degli ostaggi, ma ben presto è passato a scovare gli affiliati di Hamas. Ci sarebbe una sorta di lista dei sospettati per gli attacchi del 7 ottobre e Tel Aviv starebbe provando a rintracciarli con l'intelligenza artificiale.
L'articolo del New York Times racconta quanto accaduto al poeta palestinese Mosab Abu Toha, fermato lo scorso 19 novembre a un checkpoint mentre cercava di fuggire con la sua famiglia verso l'Egitto. Prima ancora che potesse mostrare un documento di identità, è stato ammanettato dai militari israeliani e portato via. Abu Toha ha raccontato di essere stato picchiato e interrogato per due giorni in un centro di detenzione israeliano, prima di essere riportato a Gaza senza alcuna spiegazione. In quei giorni ha raccontato di aver sentito alcuni militari parlare di una "nuova tecnologia".
Quando la sua storia è finita sulla stampa internazionale, i militari israeliani hanno spiegato che la sua detenzione non fosse che "un errore", commesso a causa di alcune informazioni di intelligence, che "indicavano la presenza di interazioni tra diversi civili e organizzazioni terroristiche nella Striscia di Gaza". Il New York Times cita delle fonti dell'intelligence israeliana, che hanno chiesto di restare anonime e hanno spiegato come questo errore sia stato commesso dal programma di riconoscimento facciale, che ha fatto uno scan del viso dell'uomo, scambiandolo per una delle persone inserite nella lista di ricercati. Abu Toha, che ora si trova a Il Cairo, ha raccontato di non avere idea che le autorità israeliane stessero fotografando tutta la popolazione di Gaza, per inserire i dati biometrici in un gigantesco database.
Un militare israeliano, citato sempre dal quotidiano newyorkese, ha raccontato che altre volte la tecnologia ha erroneamente identificato dei civili come miliziani di Hamas. Il programma di riconoscimento facciale sarebbe stato sviluppato da un'azienda israeliana, la Corsight, e si avvale anche della tecnologia di Google Photos.
La discriminazione automatizzata
Non sono cose che accadono solo in scenari di guerra o in Paesi autoritari. Anni fa Amnesty ha iniziato ad approfondire l'argomento a New York, nel cuore degli Stati Uniti. "Abbiamo iniziato a studiare queste cose a New York nel 2019, lanciando una campagna che si chiama Ban The Scan per mettere al bando questa campagna di sorveglianza di massa affidata alle macchine – ci ha spiegato sempre Noury – E ci siamo accorti che le telecamere di sorveglianza erano state installate principalmente lungo i percorsi che portavano ai luoghi di raduno del movimento Black Lives Matter, per identificare gli attivisti che partecipavano alle manifestazioni. E poi ci siamo anche accorti che nel dibattito interno all'Unione europea c'era un enorme vulnus, sull'utilizzo di questa tecnologia alle frontiere per automatizzare i respingimenti".
Noury ha concluso: "Ad applicare metodi di sorveglianza di massa sono anche Stati che in teoria dovrebbero avere dei profondi anticorpi. Penso ai Paesi Bassi, dove le macchine appoggiano la profilazione razziale negli esseri umani: sono un sostegno alle forze di polizia nel profilare la popolazione secondo criteri di minacciosità o pericolosità, che guarda caso sono sempre legati ad aspetti riferiti all'origine e alla provenienza delle persone". Un’ulteriore conferma che la tecnologia non è mai neutrale.