video suggerito
video suggerito

I “robot killer” stanno arrivando: cosa sono e in quali guerre sono già stati impiegati

I “robot killer” sono sistemi d’arma ideati per selezionare e distruggere bersagli senza un significativo controllo umano, basandosi cioè sull’elaborazione di una serie di dati da parte dell’intelligenza artificiale. Queste armi sono state già impiegate in Ucraina e a Gaza con conseguenze devastanti. L’intervista di Fanpage.it a Isabelle Jones, Campaign Outreach Manager della campagna Stop Killer Robots.
Intervista a Isabelle Jones
Campaign Outreach Manager della campagna Stop Killer Robots
A cura di Davide Falcioni
44 CONDIVISIONI
Immagine

Quando la scorsa settimana l'Accademia reale svedese ha assegnato il Premio Nobel per la Fisica a John Hopfield e Geoffrey Hinton, pionieri degli studi sulle reti neurali artificiali e sui computer capaci di imparare in modo autonomo, lo scienziato canadese – docente all’università di Toronto – ha commentato il prestigioso riconoscimento prevedendo che l’intelligenza artificiale "avrà conseguenze sull’umanità paragonabili alla rivoluzione industriale" ed enunciando gli effetti positivi che l'AI potrà avere, ad esempio nel campo della medicina.

Hinton ha però anche messo in guardia dai rischi: "Ci potranno essere anche delle conseguenze negative, qualora le macchine riescano a sfuggire al nostro controllo". E questo è esattamente quello che sta accadendo in ambito bellico, con una differenza sostanziale: in questo caso le macchine non sono incidentalmente "sfuggite" alla sorveglianza umana, ma sono state appositamente progettate proprio per essere in parte o del tutto autonome.

Da anni, infatti, le principali industrie militari studiano e sviluppano armi letali autonome – in inglese LAWS (Lethal autonomous weapons systems) – per selezionare e distruggere bersagli senza controllo da parte di un militare in carne ed ossa, basandosi cioè sull'elaborazione di una serie di informazioni da parte dell'intelligenza artificiale. Per farci spiegare cosa sono queste armi Fanpage.it ha interpellato Isabelle Jones, Campaign Outreach Manager della campagna Stop Killer Robots – di cui è membro anche la Rete Italiana Pace e Disarmo – organizzazione insignita pochi giorni fa del premio "Colombe d’oro per la Pace".

Innanzitutto, cosa si intende per Laws? Quali sistemi d'arma possono essere inclusi in questa categoria?

Con l'acronimo Laws si intendono le Lethal autonomous weapons, ovvero le armi autonome letali, sistemi  che selezionano e attaccano obiettivi senza ricorrere a nessun intervento umano. Ciò significa che cosa o chi verrà attaccato, e dove e quando avverrà l'attacco, sono determinati da sensori e macchine, e non invece da uomini o donne. Poiché l'autonomia è una funzione del sistema d'arma, significa che molti sistemi diversi potrebbero essere "Laws" e potrebbero essere utilizzati a terra, in aria e in mare. Chiamiamo "robot killer" quei sistemi d'arma autonomi che non possono essere utilizzati con un significativo controllo umano e che prendono di mira esseri umani.

Isabelle Jones
Isabelle Jones

È vero che, grazie allo sviluppo dell'intelligenza artificiale, in un futuro non troppo lontano le Laws saranno in grado di agire in totale autonomia, cioè anche in assenza di un controllo umano diretto?

Non tutti i sistemi d'arma autonomi si basano sull'intelligenza artificiale, ma essa consente alle armi autonome di essere più sofisticate, e ciò solleva serie preoccupazioni in merito alla prevedibilità e alla comprensibilità di tali sistemi. Le tecnologie che utilizzano il machine learning per modificare il proprio comportamento o adattare autonomamente la propria programmazione infatti non possono essere impiegate con un controllo reale. Altre tecnologie possono presentare una sorta di "scatola nera", in cui tuttavia non è possibile sapere perché o come vengono prese determinate decisioni. Grazie all'intelligenza artificiale, enormi quantità di dati possono essere elaborati rapidamente e utilizzati per attaccare un bersaglio senza ulteriore coinvolgimento umano, e il rischio viene amplificato dalla possibilità di adottare tecnologie a sciame.

L’AI sarà in grado di distinguere tra bersagli leciti e illeciti, o fra combattenti e popolazione civile? È possibile “addestrare” una macchina a svolgere valutazioni di questo tipo?

Secondo le norme giuridiche che disciplinano la condotta delle parti in guerra, i soldati e i comandanti militari devono essere in grado di valutare la necessità e la proporzionalità di un attacco e di distinguere tra civili e legittimi obiettivi militari. Questo richiede capacità di prendere decisioni legali ed etiche complesse basate sul contesto in cui si agisce, in ambienti molto dinamici. Le macchine non comprendono il contesto o le conseguenze: la comprensione è una capacità umana, e senza tale comprensione perdiamo la responsabilità morale e miniamo le regole legali esistenti. La capacità di distinguere tra obiettivi legali e illegali, o tra combattenti e civili, basandosi sui dati acquisiti dai sensori e processi e classificazioni dagli algoritmi è tecnicamente discutibile e solleva anche gravi preoccupazioni legali, etiche e morali, inclusi timori riguardanti la violazione della dignità umana e la disumanizzazione. È semplice: le macchine non dovrebbero prendere decisioni di vita o di morte.

Immagine

Le decisioni sulla vita o la morte in un conflitto armato richiedono valutazioni non solo "tecniche" e strategiche, ma anche etiche. Ma le macchine possono possedere virtù "morali"?

Nella campagna "Stop Killer Robots" consideriamo i sistemi d'arma autonomi come il caso più estremo dello spettro della "disumanizzazione digitale", ovvero il processo attraverso il quale gli esseri umani vengono ridotti a dati, che vengono poi utilizzati per prendere decisioni e/o compiere azioni che influenzano negativamente le loro vite. Questo processo priva le persone della loro dignità, sminuisce l'umanità degli individui e rimuove o sostituisce il coinvolgimento o la responsabilità umana attraverso l'uso di decisioni automatizzate nella tecnologia. I "robot killer" non vedono le persone, ma le "processano". Le macchine non sono agenti morali o etici, e non possono comprendere concetti come compassione e pietà.

Queste armi sono state utilizzate nelle guerre di Ucraina e Gaza? E in quali contesti, se è noto?

Sebbene alcuni tipi di armi con funzioni autonome esistano da decenni, sono state generalmente utilizzate con un significativo controllo umano. I tipi di bersagli, la durata delle operazioni, l'ambito geografico e l'ambiente in cui tali sistemi sono stati dispiegati sono stati limitati. Tuttavia, con il progresso dell'IA e di altre tecnologie emergenti, si stanno ora sviluppando e utilizzando nei conflitti contemporanei sistemi d'arma autonomi capaci di operare senza un importante controllo umano. Si riporta che munizioni vaganti con capacità di targeting autonomo siano state utilizzate in Ucraina dal 2022 ma anche da Israele nella Striscia di Gaza con conseguenze devastanti.

Ci fa un esempio?

Penso ai sistemi di raccomandazione o generazione di bersagli basati su IA, come i sistemi Habsora (alias "Vangelo") e Lavender di Israele. Non si tratta di armi autonome, sono sistemi di elaborazione dati che processano e analizzano grandi quantità di informazioni ad alta velocità per generare bersagli e fare raccomandazioni di targeting. Tuttavia, essi dimostrano l'erosione del controllo umano e del processo decisionale nell'uso della forza, e la riduzione delle persone a meri punti dati, cosa che deve essere condannata. I programmi nazionali di sviluppo delle armi di altri stati, come gli Stati Uniti e la Russia, continuano a dimostrare che i Paesi sono in competizione per ottenere vantaggi militari aumentando l'autonomia nei sistemi d'arma. Questo pone enormi rischi per la pace e la sicurezza globale, e richiede che la comunità internazionale agisca ora per tracciare chiare linee legali che garantiscano un significativo controllo umano sull'uso della forza.

Le forze armate italiane, in quanto appartenenti alla NATO, si stanno dotando di Laws?

Al momento non ci risulta. Di certo l'Italia, facendo parte della principale alleanza militare mondiale, avrà a disposizione tutte le possibili connessioni per dotarsi di tali strumenti una volta che verranno definitivamente costruiti. Proprio per questo c'è bisogno di una regolazione preventiva, per impedire che la proliferazione poi diventi incontrollabile.

Chi sono i maggiori produttori di queste armi? E anche in questo caso, le aziende del comparto industriale militare italiano partecipano a questo business?

In prima linea per arrivare ad una automazione completa dei sistemi d'arma ci sono le grandi potenze e anche quei Paesi un po' più piccoli che però hanno sviluppato negli ultimi anni grandi capacità dal punto di vista tecnologico, soprattutto sui sistemi senza pilota. Molti stati tra cui Cina, Israele, Russia, Corea del Sud, Turchia, Regno Unito e Stati Uniti starebbero investendo – secondo varie indicazioni – nella costruzione di armi autonome. Non a caso si tratta di coloro che hanno cercato di rallentare il percorso di regolazione a livello internazionale. Per quanto riguarda l'Italia grazie ad una ricerca recentemente pubblicata da uno dei nostri partners (Info.Nodes) sappiamo che il Ministero della Difesa ha ufficialmente affermato di non avere in cantiere progetti di sviluppo di armi autonome. Ma una serie di dichiarazioni e partnership ci indicano come le aziende del settore, alcuni centri di ricerca universitari e, soprattutto, l’Esercito italiano appaiano comunque molto interessati dalle prospettive che le nuove tecnologie di intelligenza artificiale offrono al settore degli armamenti.

Si sta lavorando a una messa al bando o almeno una regolamentazione dell’utilizzo delle Laws?

Gli Stati devono impegnarsi con urgenza per proteggere i civili e fare progressi significativi verso i negoziati per dotarsi di uno strumento legale sui sistemi d'arma autonomi. Un accordo giuridicamente vincolante a livello internazionale, con una combinazione di proibizioni e regolamenti per garantire un significativo controllo umano sull'uso della forza e per rifiutare l'automazione dell'uccisione, fornirebbe un quadro duraturo, offrendo il vantaggio della certezza e della stabilità legale. La comunità internazionale deve iniziare a tracciare linee a tutela dell'umanità attraverso il diritto internazionale, ora. All'Assemblea Generale delle Nazioni Unite, tutti gli Stati devono sostenere tutti gli sforzi per far avanzare il lavoro su questo tema e supportare la risoluzione sui sistemi d'arma autonomi, che aiuterà gli Stati a costruire un quadro legale internazionale completo ed efficace per la regolamentazione dei sistemi d'arma autonomi.

44 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views