video suggerito
video suggerito
Intelligenza artificiale (IA)

Ora l’intelligenza artificiale può salvare le donne: “C’è un modo per prevedere i femminicidi”

Gli algoritmi potrebbero essere in grado di calcolare le percentuali di rischio e aiutare a stabilire le misure cautelari corrette. La decisione finale spetta sempre agli esseri umani ma l’IA deve essere convertita a tutela delle donne.
Intervista a Valerio de Gioia
Consigliere della corte di appello di Roma e consulente della Commissione di inchiesta sul Femmincidio
A cura di Elisabetta Rosso
37 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Finora l'intelligenza artificiale è stata usata per spogliare i corpi delle donne, piegarli a fantasie sessuali estreme, realizzare video porno fake. Chiunque può aprire bocche, gambe, mettere a quattro zampe. Basta un click. C'è però anche un'altra faccia dell'intelligenza artificiale, quella che le donne le può salvare. "Questi strumenti devono essere convertiti a tutela delle vittime e potrebbero aiutarci a prevedere possibili situazioni di rischio". A parlare è Valerio De Gioia, consigliere della corte di appello di Roma e consulente della Commissione di inchiesta sul Femmincidio.

Come spiega De Gioia a Fanpage.it l‘intelligenza artificiale può diventare uno strumento per calcolare le percentuali di rischio: "I risultati devono essere sempre controllati e valutati dalla persona a cui spetta la decisione finale, ma le indicazioni date dall’IA potrebbero essere utili per il pubblico ministero e per il giudice che si troverà a decidere sulla richiesta di applicazione di una misura. Potremmo agire tempestivamente e non sottovalutare situazioni a rischio". Nei primi sei mesi del 2024, sono state 51 le donne vittime di femminicidio, secondo i dati del Viminale, "e anche se l'intelligenza artificiale dovesse salvare una donna soltanto all'anno ne sarà valsa la pena."

Come può essere utilizzata l’intelligenza artificiale per proteggere le donne?

Partiamo da un grande problema. Noi sottovalutiamo. Quando ci troviamo di fronte a una denuncia spesso non cogliamo i campanelli d’allarme. Un programma di intelligenza artificiale invece potrebbe essere molto utile per dare indicazioni sulla percentuale di rischio e quindi adeguare le misure cautelari in base alle indicazioni date nella denuncia.

Come verrebbero raccolti e analizzati questi dati?

L’idea è di far compilare un questionario con una pluralità di domande che ci darebbero anche informazioni che potrebbero non sembrare significative ed essere appunto sottovalutate.

Per esempio?

Per esempio se la persona in questione ha perso il lavoro, se c’è una separazione in corso, se hanno figli, se questi figli sono minori. Se compilato correttamente questo questionatio può far emergere degli indicatori comuni con altri femminicidi e quindi calcolare la percentuale di rischio.

Alcuni sistemi predittivi sono già utilizzati per esempio dalla polizia negli Stati Uniti. Funzionano?

I sistemi funzionano, ma come supporto, è fondamentale che i risultati siano sempre controllati e valutati dalla persona a cui spetta la decisione finale. Le indicazioni date dall’IA potrebbero essere utili per il Pubblico Ministero e per il giudice che si troverà poi a decidere sulla richiesta di applicazione di una misura. 

Non rischiano di discriminare? Gli algoritmi hanno dei pregiudizi in base ai dati di addestramento. 

Certo. Ti faccio un esempio banale, i programmi devono essere addestrati, ovvero una persona dà indicazioni da seguire, se il programmatore trova normale urlare la sera, o spaccare piatti, è chiaro che dirà all’algoritmo che quelli non sono indici di pericolosità. 

Come si fa allora a evitare questi bias?

Dobbiamo stare attenti a non introdurre dei pregiudizi perché chi introduce i dati deve sapere quali sono i reali segnali si pericolo, e noi li possiamo trarre dall’esperienza e dai reati che si sono verificati in precedenza. Per esempio il controllo ossessivo del denaro da parte dell’uomo non è un dato neutro, la violenza economica abbiamo visto che è una delle modalità legate ai maltrattamenti in famiglia. C’è anche un altro pericolo.

Quale?

Dobbiamo assistere la donna quando compia il questionario. Spesso chi sporge denuncia si vergogna, non solo, ci saranno tante domande, alcune articolate e il rischio è che venga compilato in maniera incompleta o inesatta, e potrebbe essere esclusa la pericolosità.

Sempre parlando di discriminazione, l’algoritmo potrebbe non proteggere tutte le donne in maniera equa?

Assolutamente, questo è corretto ed è già successo. In altri sistemi, in assenza di figli i programmi hanno dato un rischio più basso e invece poi i femminicidi ci sono stati. Per questo bisogna programmarlo in maniera adeguata e correggere gli errori in corso d’opera, dava sempre un rischio basso e invece sono accaduti femminicidi in presenza della denunce, programmando in maniera adeguata, e correggere gli errori in corso d’opera, capire quale ulteriore modifica.

L’IA può essere uno strumento di assistenza immediata e personalizzata per le vittime? Ma anche per esempio usata per raccogliere materiale probatorio in sicurezza, senza che l'aggressore se ne accorga?

Certo. Un sistema IA potrebbe essere utilizzato per esempio vedere gli spostamenti del braccialetto elettronico. Un uomo potrebbe seguire una donna anche tenendo la distanza minima di 500 metri. L’algoritmo potrebbe accorgersi di comportamenti anomali, per esempio se esce quando esce la donna o rientra a casa nello stesso momento. Quindi prima ancora che venga violata la misura potrebbe far partire l’allarme.

È mai stato utilizzato in Italia un programma del genere?

In Italia no, non sono stati ancora utilizzati, c’è un’analisi in corso proprio per capire quali potrebbero essere i parametri con cui addestrare l’algoritmo.

All’estero invece?

In Spagna sono già stati utilizzati ma ci sono stati dei problemi, il programma funziona ma non c’è stata un’assistenza sufficiente durante la compilazione del questionario.

Immagino che sarà anche necessario creare un contesto normativo che favorisca l'adozione responsabile di questi programmi. 

Assolutamente, tutto quello che implica l’utilizzo dell’IA deve essere disciplinato. Anche perché vengono acquisiti dati sensibili che possono essere un problema per la privacy delle persone. Quindi non solo una legge, ci dovrà essere anche un regolamento che disciplina nel dettaglio la raccolta di questi elementi e la conservazione di questi dati.

A proposito di privacy. Potrebbero essere un problema per le vittime?

Beh no, tutte le informazioni vengono condivise con il consenso della vittima.

Ma i dati raccolti potrebbero essere hackerati?

No, perché le banche dati non hanno la connessione da remoto, cioè i dati più preziosi in molti sistemi di raccolta dati non hanno la connessione. Potrebbe essere più complicato consultarli perché bisogna chiedere il dato specifico, farlo estrarre e poi metterlo su un terminale. Ma tu li puoi consultare di volta in volta, quindi non c'è il rischio.

L'intelligenza artificiale al momento è stata più utilizzata contro le donne che per le donne. Penso per esempio ai deepnude. 

Certo con un software è possibile creare immagini false che sembrano vere e spogliare le ragazze creando immagini e video orribili. Noi abbiamo un codice che sanziona in modo severo la diffusione illecita di immagini o video reali sessualmente espliciti. Non vale se le immagini sono false, perché la norma non le prevede. È necessario un intervento urgente del legislatore che possa modificare quella disposizione, estendendo la tutela. Non solo l'intelligenza artificiale deve essere convertita a tutela delle donne. 

37 CONDIVISIONI
484 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views