video suggerito
video suggerito
Intelligenza artificiale (IA)

L’Europa si prepara ad approvare il suo primo regolamento sull’IA: “Ci sono rischi inaccettabili”

Classe 1986, Brando Benifei (PD) è uno degli europarlamentari che hanno lavorato all’AI Act, il regolamento sull’intelligenza artificiale che verrà votato dal Parlamento Europeo nella prossima sessione.
A cura di Valerio Berra
22 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

“Move fast and break things”. “Corri veloci e distruggi quello che incontri”. È uno delle frasi più citate e più abusate della Silicon Valley, il mantra che si ricordano i giovani imprenditori quando devono entrare in un mercato nuovo. La frase che serve per giustificare gli errori, le leggi violate, il lavoro in modalità hard core. Per la prima volta sembra che la corsa del silicio, la creazione e distruzioni di mercati nata dalla rivoluzione digitale abbia trovato un ostacolo: l’Unione Europea. La prossima settimana il Parlamento Europeo discuterà l’Artificial Intelligence Act (AI Act), un regolamento sull’intelligenza artificiale per definire tutti i limiti di questa tecnologia. Il regolamento definisce una serie di norme sugli ambiti in cui questa classe di software può essere applicata. Un primo voto è già arrivato dalle Commissioni Giustizia e Mercato interno che hanno dato il loro via libera al testo. Fanpage.it ne ha parlato con Brando Benifei, europarlamentare eletto tra liste del PD e membro della Commissione Giustizia.

Come nasce l’Ai Act?

Ci sono state diverse Commissioni che hanno lavorato a questo regolamento. È un percorso che ha mosso i primi passi nella prima metà di questa legislatura, iniziata nel 2019. Tutto è nato perché c’erano alcuni Paesi che stavano lavorando su una legislazione autonoma per l’intelligenza artificiale. Il rischio era quello di creare differenze tra Stato e Stato e frammentare così tutto il mercato interno.

Avete definito degli ambiti in cui l’intelligenza artificiale in tre classi.

Sì, ci sono tre categorie per le applicazioni dell’intelligenza artificiale: basso rischio, alto rischio e rischio inaccettabile. Negli ambiti con rischio inaccettabile sono quelli in cui l’intelligenza artificiale è vietata, come il riconoscimento biometrico o gli usi legati alla polizia predittiva. Fra gli ambiti ad alto rischio poi ci sono tutti quei settori che riguardano lo sviluppo cognitivo dei bambini.

C’è il rischio che queste norme rallentino l’arrivo di sistemi di intelligenza artificiale? Penso a Bard, l’AI di Google che al momento è bloccata in Unione Europea.

Non c’è nessun rischio. Gli sviluppatori più piccoli sono tutelati grazie a una serie di sistemi che offrono una serie di tutele senza dove applicare le norme seguite dai grandi sviluppatori. Nel Bard parliamo comunque di un colosso che ha tutti gli strumenti per potersi adattare ai nostri regolamenti e tutti gli interessi a non perdere un mercato come quello europeo.

Siamo in una fase in cui qualsiasi software che viene lanciato sul mercato ha un componente di intelligenza artificiale. Cosa è intelligenza artificiale e cosa non lo è?

Per la definizione abbiamo preso quella usata dall’OCSE, così abbiamo definito una linea comune. Fondamentalmente parliamo di software in grado di rispettare certi standard per l’autonomia e la capacità di apprendimento.

Chi dovrà controllare l’applicazione di queste leggi?

Dovranno esserci due livelli di supervisione. Prima di tutto ci sarà un organismo a livello europeo che si occuperà di coordinare tutte le attività di supervisione. Poi entreranno in campo anche tutte le Autorità nazionali decise dagli Stati membri, ovviamente dovranno essere competenti su questi temi.

Il ministro Matteo Piantedosi sembrava favorevole al riconoscimento facciale nei luoghi pubblici.

Il Parlamento italiano ha votato una moratoria su questo. Al momento però non c’è un regolamento ufficiale. Credo che prima di decidere qualsiasi cosa su questi temi sia meglio aspettare il regolamento europeo. Soprattutto per tecnologie che creano più violazioni ai diritti umani che sicurezza. In ogni caso, sono contrario all’uso del riconoscimento facciale nei luoghi pubblici.

In questo regolamento ci sono anche accenni a politiche per tutelare chi perderà il lavoro con l’intelligenza artificiale?

Il regolamento è rivolto al mercato interno: non può affrontare direttamente questo tema. Gli aspetti su cui possiamo intervenire solo altri come la scelta di affidare all’intelligenza artificiale operazioni come la valutazione del personale, sia in fase di assunzione che di licenziamento.

22 CONDIVISIONI
479 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views