L’esercito di Israele sta creando un’IA simile a ChatGPT per sorvegliare i palestinesi: il report

L’intelligenza artificiale è diventata uno strumento centrale per la sorveglianza militare israeliana. I sistemi non si limitano a raccogliere dati: spiano conversazioni, identificano sospetti e segnalano i bersagli da eliminare. L'Unità 8200 (una squadra di guerra informatica d'élite dell'intelligence militare israeliana) da almeno due anni sta lavorando a un nuovo software simile a ChatGPT ma addestrato su milioni di conversazioni in arabo, secondo un'indagine condotta da +972 Magazine, Local Call e The Guardian.
Il modello è stato alimentato con oltre 100 miliardi di parole in arabo, anche conversazioni private ottenute tramite la sorveglianza su larga scala dei palestinesi da parte di Israele. "Stiamo parlando di informazioni altamente personali, prese da persone che non erano sospettate di alcun crimine, per addestrare uno strumento che verrà utilizzato per identificare persone sospette", ha spiegato Zach Campbell, ricercatore senior presso Human Rights Watch, a +972, Local Call e al Guardian.
Come ha sottolineato Nadim Nashif, direttore e fondatore del gruppo palestinese per i diritti digitali e la difesa dei diritti 7amleh: "I palestinesi sono diventati cavie nel laboratorio israeliano per sviluppare queste tecnologie e trasformare l'intelligenza artificiale come un'arma, lo scopo è mantenere un regime di apartheid e occupazione in cui queste tecnologie vengono utilizzate per dominare un popolo, per controllare le loro vite. Questa è una grave e continua violazione dei diritti digitali palestinesi, che sono diritti umani".
Il modello dell'Unità 8200
L'esistenza dell'LLM dell'Unità 8200 è stata confermata a +972, Local Call e al Guardian da tre fonti di sicurezza israeliane. L'Unità è nota per utilizzarr tecnologie sofisticate, tra queste il monitoraggio di dati digitali e le operazioni di spionaggio elettronico. Molti degli ex membri di Unit 8200 sono diventati figure di spicco nel settore tecnologico. Per esempio Ehud Schneorson, ex comandate della Unit 8200 ha fondato insieme Ehud Barak, ex Prime Minister di Israele, Paragon, l'azienda ha prodotto lo spyware che è stato installato in diversi telefoni di attivisti e giornalisti. Tra questi Francesco Cancellato, direttore di Fanpage.it.
Non è chiaro come verrà utilizzato il software e se è già stato distribuito, secondo le fonti però darà un grande vantaggio a Israele. "L'intelligenza artificiale amplifica il potere", ha spiegato una fonte di intelligence che ha seguito da vicino lo sviluppo dei modelli linguistici dell'esercito israeliano negli ultimi anni. "Agevola operazioni utilizzando i dati di molte più persone, permette infatti di controllare la popolazione. Non si tratta solo di prevenire attacchi con armi da fuoco. Posso tracciare gli attivisti per i diritti umani. Posso monitorare i palestinesi nell'Area C della Cisgiordania. Hanno gli strumenti per sapere cosa sta facendo ogni persona in Cisgiordania."
Secondo l'indagine l'Unità 8200 per realizzare l'IA ha chiamato esperti nello sviluppo di modelli linguistici che lavorano presso giganti tech come Google, Meta e Microsoft. Google ha spiegato di avere "dipendenti riservisti in vari paesi", e sottolineato che il loro lavoro non è collegato all'azienda.
Gli errori dell'intelligenza artificiale
L'intelligenza artificiale non è affidabile, sbaglia, e applicata come arma può diventare estremamente pericolosa. Secondo Ori Goshen, co-CEO e co-fondatore dell'azienda israeliana AI21 Labs specializzata in modelli linguistici, "sono modelli probabilistici: si fornisce loro un suggerimento o una domanda e generano qualcosa che sembra magia, ma spesso la risposta non ha senso. Noi chiamiamo questo fenomeno allucinazione‘".
Campbell, di Human Rights Watch, ha sollevato una preoccupazione simile. Gli errori dei Large Language Model sono intrinseci al sistema. Non solo, le persone che usano questi strumenti spesso non sono le stesse che li hanno sviluppati, quindi tendono a fidarsi di più dei sistemi, "e queste ipotesi errate potrebbero essere usate per incriminare le persone".
Precedenti indagini hanno rivelato i difetti nei sistemi operativi. Per esempio Lavender, l'IA per individuare potenziali obiettivi militari tra i cittadini palestinesi ha generato liste basate su modelli predittivi, con un tasso di errore del 10%, causando la morte di migliaia di persone, spesso colpite insieme alle loro famiglie. Non solo, l'IA solleva anche nuove questioni etiche. L’automazione della guerra attraverso l’intelligenza artificiale infatti non può che aumentare la distanza morale tra chi uccide e chi muore.
Come Israele sta utilizzando l'IA nelle operazioni militari
Israele da tempo sta utilizzando l'intelligenza artificiale per monitorare i palestinesi, e raccogliere informazioni sensibili, difficoltà finanziarie, orientamento sessuale e problemi di salute. L'esercito usa i software per trascrivere e analizzare conversazioni e stilare liste di "sospetti" da arrestare. L'IA è utilizzata anche per soddisfare obiettivi quantitativi stabiliti. "A volte, un comandante vuole semplicemente 100 arresti al mese", ha riferito una fonte anonima a +972, Local Call e al Guardian.
L'IDF non ha risposto alle richieste di commento, ha solo dichiarato che "l'uso di strumenti tecnologici segue un processo rigoroso per garantire la massima accuratezza delle informazioni". Secondo gli esperti l'uso crescente e indiscriminato dell'IA nella sorveglianza e nelle operazioni militari potrebbe intensificare la repressione sui palestinesi, rendendo ancora più difficile il rispetto dei loro diritti fondamentali.