L’intelligenza artificiale non rende la guerra “etica”: quello che accade a Gaza ce lo dimostra
L'esercito israeliano, da quando si è formato, è sempre stato uno dei più tecnologicamente avanzati al mondo. E la sua macchina da guerra che in questi mesi sta devastando la Striscia di Gaza, ne è l'esempio. Soprattuto nelle settimane immediatamente successive al 7 ottobre le IDF (le Forze di difesa israeliane) si sono affidate a un sistema di intelligenza artificiale, chiamato Lavander, per individuare potenziali obiettivi militari tra i cittadini palestinesi. Per identificare, in altre parole, chi poteva essere un miliziano di Hamas, o comunque un'affiliato all'organizzazione e fosse, in quanto tale, da eliminare.
Ad affermarlo è un'inchiesta condotta da due media indipendenti che operano tra Israele e Palestina, +972 Magazine e Local Call. Secondo quanto scoperto dai giornalisti, circa 37mila palestinesi sarebbero stati etichettati come presunti militanti di Hamas e le loro case indicate come possibili obiettivi. Ai soldati venivano concessi appena 20 secondi, giusto il tempo di accertarsi se il target fosse di sesso maschile, per autorizzare un raid.
L'inchiesta di +972 e Local Call
Mentre Lavander veniva usato per identificare tutti coloro che potenzialmente avessero un legame con Hamas, un altro sistema di intelligenza artificiale – Gospel – aveva il compito di individuare i luoghi sospettati di essere usati come base militare dell'organizzazione. E infine un'altro ancora – Where's Daddy? – segnalava quando i presunti membri di Hamas rientravano nelle loro case.
Prima del 7 ottobre l'uccisione di un miliziano all'interno della sua casa veniva autorizzata solo in casi eccezionali (e comunque solo quando si trattava di membri di alto rango), ma da quel giorno le regole sono cambiate. Visto che gli obiettivi sono più facili da colpire se si trovano all'interno delle loro case, questa è diventata la norma. Le famiglie dei bersagli sono semplicemente diventate un danno collaterale.
Non è l'unica regola di guerra a essere cambiata dopo il 7 ottobre. Da quel momento tutti coloro sospettati di avere un legame con Hamas, di qualsiasi tipo, hanno ricevuto lo stesso trattamento. Anche essersi avvicinato all'organizzazione anni prima significava diventare un bersaglio. Si è venuto così a creare un problema tecnico. Se prima l'uccisione di un obiettivo poteva essere autorizzata solo dopo una serie di verifiche, con l'aumento esponenziale dei target questo processo è diventato impossibile da fare. O meglio, è diventato umanamente impossibile.
Identificare il bersaglio
Ma con gli ultimi sistemi di intelligenza artificiale e le innovazioni tecnologiche più all'avanguardia poteva essere processata in tempo reale un'enorme quantità di dati. +972 Magazine e Local Call hanno riportato le testimonianze di sei ufficiali dei servizi segreti israeliani, che hanno servito nell'esercito in quelle prime settimane di operazioni militari a Gaza, e che hanno raccontato come venissero usati questi software.
Sistemi di intelligenza artificiale, come appunto Lavander, hanno sostituito il lavoro dei militari che si occupavano di individuare i bersagli e di stilare una lista su chi e dove colpire. Su chi uccidere, in altre parole. Una fonte dell'inchiesta ha raccontato che nelle prime due settimane di guerra l'autorizzazione per colpire i bersagli individuati dal software arrivava comunque da dei militari. C'era ancora un controllo umano, insomma.
Una volta appurato che Lavander avesse una precisione del 90% nel segnalare individui effettivamente connessi con Hamas, si sarebbe cominciato a operare in via automatica. Da quel momento in poi, è stata l'intelligenza artificiale a decidere chi poteva essere ucciso.
Sorveglianza massiva
I dati analizzati da Lavander – per stabilire chi potesse essere etichettato come potenziale bersaglio – sono stati raccolti nella Striscia di Gaza attraverso sistemi di sorveglianza massiva. Dei software che hanno accumulato informazioni su 2,3 milioni di persone, per poi classificare il grado di probabilità di ogni individuo di essere effettivamente un membro attivo di Hamas o della Jihad islamica palestinese.
L'intelligenza artificiale, basandosi su algoritmi e processi di machine learning, segnalava le caratteristiche considerate sospette – come la partecipazione a determinati gruppi su WhatsApp, o il fatto di cambiare frequentemente cellulare o indirizzo – e le incrociava per capire chi potesse essere un militante di Hamas.
Un alto ufficiale intervistato da +972 e Local Call ha raccontato che i soldati non verificassero la veridicità di quelle informazioni, così da non perdere tempo. Tutto questo nonostante fosse noto che il 10% degli obiettivi militari da colpire venisse segnalato per errore.
In contesti di guerra i cellulari vengono costantemente cambiati, o perché si rompono sotto alle macerie o perché vengono persi nelle fughe: è verosimile, quindi, che l'intelligenza artificiale abbia segnalato come obiettivo qualcuno che non aveva alcun legame con Hamas, semplicemente associandolo a molteplici cellulari e classificando quell'informazione come indizio sicuro.
Errori di questo tipo sono stati semplicemente accettati come danno collaterale. "Nella guerra non c'è tempo per verificare che ogni obiettivo sia colpevole", ha detto un membro dell'intelligence israeliana, citato nell'inchiesta. Il margine di errore veniva semplicemente accettato.
Un portavoce delle IDF ha negato tutto, spiegando che i sistemi di intelligenza artificiale sono usati unicamente come strumenti ausiliari per gli agenti, ma che ci sia sempre un controllo umano quando è il momento di decidere chi e dove colpire. Secondo le fonti citate dall'inchiesta, invece, solo nelle prime settimane sono state fatte delle verifiche umane, solo per accertare che l'obiettivo individuato da Lavander fosse un uomo.
Non ci sono donne nei ranghi di Hamas o della Jihad islamica palestinese. Se il sistema ne segnalava una, allora si stava confondendo. Altrimenti, quell'informazione veniva considerata verosimile.
Donne e bambini, le principali vittime
Ma se le cose stanno così, come è possibile che le principali vittime della guerra a Gaza siano donne e bambini? Perché sono state bombardate assiduamente case, scuole, ospedali e moschee. Le IDF hanno dato la colpa ad Hamas, accusando i miliziani di nascondersi appositamente tra la popolazione civile, nel cuore delle città, pensando così di non essere attaccati. Anche le fonti di +972 e Local Call hanno confermato che i miliziani costruiscono le gallerie sotto alle case e utilizzano le ambulanze per spostarsi. Ma hanno aggiunto un'altra cosa, che spiegherebbe questo bilancio senza precedenti di vittime civili: i miliziani di Hamas sarebbero stati sistematicamente colpiti all'interno delle loro abitazioni in quanto per l'intelligenza artificiale è più facile rintracciarli quando hanno varcato la soglia di casa.
Where's Daddy? era il sofwtware utilizzato a questo scopo: quando Lavander individuava una persona sospetta la associava poi a una serie di dati, tra cui la sua residenza, e Where's Daddy? – usando la fitta rete di sorveglianza massiva – segnalava non appena vi entrasse. A quel punto scattava l'operazione militare, indipendentemente dal fatto che in quella casa ci fossero anche la moglie, i figli, i parenti o che in quel palazzo ci abitassero anche altre persone senza alcun tipo di legame con l'obiettivo.
Secondo le Nazioni Unite nel primo mese di guerra oltre la metà delle vittime (6.120 persone) appartenevano a 1.340 famiglie, alcune delle quali completamente distrutte. Intere famiglie eliminate dalla faccia della Terra, per decisione di sistemi automatizzati.
Effetti collaterali
Con i miliziani di basso rango, ha svelato ancora l'inchiesta, sono state utilizzate le cosiddette "dumb bombs", cioè missili privi di sistema di guida, decisamente meno costosi di quelli ad alta precisione, ma con una capacità distruttiva molto più grande. La CNN, citando fonti dell'intelligence statunitense, ha stimato che circa il 45% delle munizioni usate a Gaza siano "dumb bombs" tristemente note per causare molti più danni collaterali.
"Il principio di proporzionalità non esiste", ha raccontato un militare, citato nell'inchiesta. Nei conflitti armati esiste una regola (sì, anche le guerre hanno delle regole) per cui un attacco che comporta sproporzionate perdite civili rispetto a quello che era l'obiettivo militare sia da considerare come un crimine di guerra.
Decidendo di utilizzare massicciamente sistemi come Lavander si è anche scelto di mettere in conto i danni collaterali e che tutto questo fosse considerato accettabile. Diverse delle fonti citate nell'inchiesta, per raccontare le prime settimane dopo il 7 ottobre e la portata della distruzione sulla popolazione civili, hanno usato tutte la stessa parola: "Vendetta".
Il bilancio si è fatto sempre più pesante fino a quando, un po' per le pressioni statunitensi, un po' perché con la maggior parte della Striscia distrutta e la popolazione sfollata anche l'intelligenza artificiale faceva più fatica a individuare gli obiettivi e i luoghi dove colpirli, Lavander ha smesso di essere utilizzato ossessivamente.
Non è chiaro in che modo l'intelligenza artificiale venga utilizzata in questa fase del conflitto, o quanto sia pervasiva in strategie e pratiche militari. Ma sicuramente chi pensava che con i sistemi di IA anche la guerra potesse diventare più etica e morale – se mai questo sia possibile – aiutando a prevenire vittimi civili e a contenere i danni su popolazioni e ambienti, si dovrà porre qualche domanda.