video suggerito
video suggerito

Benifei a Fanpage: “Serve sviluppo etico dell’AI, governo non crei condizioni per sorveglianza massiva”

“Credo che il governo italiano sbaglierebbe a perseguire una strada che andrebbe a creare le condizioni per una sorveglianza massiva, per un controllo sui cittadini che va contro i principi fondamentali della nostra Costituzione”: lo ha detto l’eurodeputato Brando Benifei, parlando del regolamento approvato dal Parlamento Ue sull’intelligenza artificiale e dei progetti del governo per quanto riguarda il riconoscimento facciale e i sistemi di polizia predittiva.
A cura di Annalisa Girardi
16 CONDIVISIONI
Immagine

Alcune settimane fa il Parlamento europeo ha approvato l'AI Act, un primo passo per definire un perimetro di norme e regolare gli utilizzi dell'intelligenza artificiale. L'obiettivo è ambizioso: esplorare le opportunità di sviluppo offerte dall'intelligenza artificiale e allo stesso tempo mantenere un approccio etico e attento. "Stiamo parlando di questioni che riguardano nel profondo i nostri valori, poiché l'intelligenza artificiale oggi è in grado di incidere moltissimo sulla vita delle persone: può sostituire lavori o impattare il modo in cui si diffonde una notizia", ha commentato Brando Benifei, uno dei relatori dell'Ai Act al Parlamento europeo, in un'intervista con Fanpage.it, sottolineando che una riflessione sulle questioni etiche che devono supportare l'attività politica riferita all'intelligenza artificiale debba coinvolgere tutti.

"La questione di mettere al centro l'essere umano come perno di uno sviluppo etico dell'intelligenza artificiale, secondo un modello europeo, è qualcosa di cui abbiamo discusso ampiamente e che abbiamo cercato di trasporre nella proposta di regolamento", ha ribadito Benifei.

Video thumbnail

Parliamo dell'impatto dell'intelligenza artificiale sull'occupazione e sul mondo del lavoro. Quali sono le sue previsioni?

Così come è accaduto con la rivoluzione industriale o con l'avvento di Internet, anche con l'intelligenza artificiale si avrà un impatto importante sull'occupazione. Credo che sia inevitabile, è sempre accaduto con lo sviluppo delle innovazioni tecnologiche. Quello che non possiamo permetterci in una società democratica, però, è che l'impatto della tecnologia vada a sconvolgere gli equilibri sociali, senza dare l'opportunità per la creazione di nuovi posti di lavoro. Il tema della riduzione dell'orario di lavoro, di una diversa organizzazione della forza lavoro, dell'utilizzo di nuovi strumenti per il sostegno sociale a chi non sta lavorando, sono tutti temi importanti da tenere in considerazione.

Non c'è dubbio che avremo alcuni lavori che verranno progressivamente sostituiti. Ma aumenteranno le persone che dovranno accompagnare, sostenere o correggere dove necessario, i sistemi di intelligenza artificiale. Mentre in altri ambiti non credo che l'intelligenza artificiale riuscirà a intervenire in maniera sostitutiva. Penso alla cura delle persone, così come tutti i lavori che hanno un impatto relazionale. Sarà compito della politica tutelare i lavoratori nei vari ambiti e offrire la possibilità di sviluppare nuove professionalità. Non sarà facile farlo, però, se l'Europa non resta unita. Saremo i primi in ambito mondiale a mettere regole in forma di leggi sull'intelligenza artificiale, dobbiamo essere leader.

Parliamo di queste regole, ce ne sono alcune in contrasto con alcuni progetti del governo italiano…

L'obiettivo del regolamento è molto chiaro: ridurre ed eliminare, dove possibile, i rischi generati dall'intelligenza artificiale per la vita quotidiana delle persone. Se si ritiene che il rischio sia talmente elevato che possa portare danni alla salute, alla sicurezza, ai diritti fondamentali, allora chiediamo di vietare tout court gli usi. Cioè che l'intelligenza artificiale in alcuni ambiti, proprio non venga utilizzata. Allora abbiamo identificato ad esempio il divieto del social scoring modello cinese, cioè una raccolta di dati sui cittadini per fare la classifica dei buoni e dei cattivi a loro insaputa. Così come abbiamo vietato il riconoscimento biometrico in tempo reale negli spazi pubblici, quindi le telecamere di sorveglianza con il riconoscimento facciale. Infine, vogliamo vietare la cosiddetta polizia predittiva, cioè i sistemi che cercano di anticipare la realizzazione di crimini. Oggi in Italia in entrambi questi ambiti, il riconoscimento biometrico e sistemi di polizia predittiva, ci sarebbe la volontà del governo di avviare sperimentazioni. Lo invito a fermarsi.

Noi difenderemo un approccio assolutamente rigoroso a tutela delle libertà fondamentali dei cittadini che non possono essere spiati e non possono essere privati di un principio fondamentale come la presunzione di innocenza. Sono stato negli Stati Uniti e ho discusso con tante realtà che hanno utilizzato questi sistemi: hanno perseguitato persone di colore, o provenienti da programmi sociali più difficili, senza ottenere nessun vantaggio in termini di sicurezza. Sono quelli che hanno utilizzato questi sistemi a dirci che non servono a niente, che sono solo danno rispetto alla dignità e alla libertà delle persone. Credo che il governo italiano sbaglierebbe a perseguire una strada che andrebbe a creare le condizioni per una sorveglianza massiva, per un controllo sui cittadini che va contro i principi fondamentali della nostra Costituzione e molto probabilmente anche contro le norme europee che stiamo per approvare con l'attuale formulazione del regolamento, cioè quella approvata dal Parlamento europeo.

Mentre stavate scrivendo questo regolamento siete stati contattati anche dalle lobby delle Big Tech?

Certamente ci sono stati approcci dai vari portatori di interessi in campo, che hanno cercato di orientare il nostro lavoro. Ad esempio, noi abbiamo inserito dentro il regolamento degli obblighi molto forti per i cosiddetti modelli di fondazione, che sono i sistemi più potenti dietro l'intelligenza artificiale generativa. Quindi per esempio Gpt4, per ChatGpt, abbiamo messo obblighi di trasparenza molto pervasivi: cioè proponiamo di rendere riconoscibili i contenuti prodotti dall'AI con un watermarking, per differenziarli da ciò che invece è prodotto dagli esseri umani. Vogliamo renderli identificabili immediatamente, per evitare un rischio di un nuovo livello di disinformazione.Ecco, questo sono obblighi su cui si concentra molto l'attenzione anche delle Big Tech, che avrebbero così molte più regole e responsabilità. Non c'è dubbio che proseguirà un'attività di rappresentanza di interessi, è legittima.

Il mondo dell'AI è in veloce sviluppo, come fare affinché il regolamento che state per approvare non diventi obsoleto nel giro di qualche anno o mese?

Il regolamento si è concentrato sugli usi dell'intelligenza artificiale, più che sulla tecnologia in sé, proprio per cercare di sopravvivere alle trasformazioni tecnologiche. Inoltre è stato previsto un meccanismo di aggiornamento degli ambiti considerati a maggiore rischio, in modo da adeguare il regolamento senza un'intera procedura legislativa, ma sempre con lo scrutinio del Parlamento europeo attraverso i cosiddetti atti delegati.

Noi stiamo facendo per primi un passo in una direzione che in qualche modo è inesplorata: l'idea è di mettere regole che siano compatibili con la nostra democrazia, basata su alcuni valori fondamentali, come quelli della nostra Costituzione italiana. Una trasformazione tecnologica che ha il potenziale di stravolgere le nostre società, noi cerchiamo di rendere l'intelligenza artificiale uno strumento di emancipazione, per creare opportunità e di libertà. Non è facile, ma questo è l'obiettivo che ci siamo dati.

16 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views