video suggerito
video suggerito

L’Argentina vuole usare l’IA per prevedere i crimini futuri, e questo è un problema

La nuova unità utilizzerà gli algoritmi per prevedere possibili crimini futuri, attraverso software, analisi dei dati e apprendimento automatico vuole indentificare modelli e tendenze criminali nei database del ministero della sicurezza. Le implicazioni sui diritti umani sono evidenti e preoccupanti.
A cura di Elisabetta Rosso
76 CONDIVISIONI
Immagine

Quando Javier Milei è salito al potere a dicembre 2023 ha promesso un piano durissimo per eliminare la criminalità nel Paese. Ora ha creato l'Unità di intelligenza artificiale applicata alla sicurezza. Il presidente argentino utilizzerà "algoritmi di apprendimento automatico per analizzare i dati storici e prevedere crimini futuri". In altre parole un sistema che ricalca il regime distopico immaginato dallo scrittore di fantascienza Philip K. Dick in Minority Report. 

L'annuncio dell'Unità di intelligenza artificiale applicata alla sicurezza ha scatenato una forte reazione nel Paese. Non stupisce. L'Argentina porta il peso di una lunga storia di repressione statale. Durante la guerra sporca negli anni '70, ci furono 2.300 omicidi politici e circa 30.000 persone scomparvero, 9.000 accertate dalla Comisión Nacional sobre la Desaparición de Personas.

Secondo il Center for Legal and Social Studies, il ministro della sicurezza Patricia Bullrich sta cercando di replicare il brutale modello carcerario di El Salvador, "l'amministrazione invece si sta muovendo verso la militarizzazione della politica di sicurezza". Non solo. Il governo ha anche represso proteste e minacciato di sanzionare i genitori che portano i bambini alle marce. Ora l'applicazione dell'Unità di intelligenza artificiale rischia di mettere ancora più a rischio i diritti dei cittadini.

Come fa l'IA a prevedere i crimini futuri

La nuova unità utilizzerà gli algoritmi per prevedere possibili crimini futuri, attraverso software, analisi dei dati e apprendimento automatico vuole indentificare modelli e tendenze criminali nei database del ministero della sicurezza. Sarà composta da ufficiali di polizia e agenti di altre forze di sicurezza che dovranno "pattugliare piattaforme social aperte, applicazioni e siti web" e "rilevare potenziali minacce, identificare i movimenti di gruppi criminali o anticipare i disordini", spiega il governo.

Non solo, l'unità "analizzerà le immagini delle telecamere di sicurezza in tempo reale per rilevare attività sospette o identificare persone ricercate tramite riconoscimento facciale". Gli algoritmi di apprendimento verranno anche utilizzati per analizzare i dati storici sui crimini e prevedere quelli futuri. Verranno monitorate poi "transazioni finanziarie sospette o comportamenti anomali che potrebbero indicare attività illegali". Il progetto non si limita agli spazi virtuali, verranno infatti pattugliate intere aree attraverso i droni. 

Quali sono i rischi della nuova Unità di intelligenza artificiale

Le implicazioni sui diritti umani sono evidenti e preoccupanti. "La sorveglianza su larga scala colpisce la libertà di espressione perché incoraggia le persone ad autocensurarsi o ad astenersi dal condividere le proprie idee o critiche se sospettano che tutto ciò che commentano, postano o pubblicano sia monitorato dalle forze di sicurezza", ha spiegato Mariela Belski, direttrice esecutiva di Amnesty International Argentina.

Per Natalia Zuazo, esperta in politica digitale, siamo di fronte a "un'intelligence illegale mascherata dall'uso di tecnologie moderne", che consentirà l'accesso indiscriminato a informazioni personali. Non solo. Come ha sottolineato il Centro argentino per gli studi sulla libertà di espressione e l'accesso all'informazione "queste tecnologie sono state storicamente usate per profilare accademici, giornalisti, politici e attivisti".

76 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views