video suggerito
video suggerito
Intelligenza artificiale (IA)

Il primo regolamento al mondo sull’intelligenza artificiale è stato approvato: cosa ha deciso l’Ue

L’AI Act chiede più trasparenza alle aziende, vieta il riconoscimento biometrico, salvo tre eccezioni, e tutela il diritto di autore. Il testo prevede anche un regime di sanzioni.
A cura di Elisabetta Rosso
8 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Dopo 36 ore di negoziati il primo quadro normativo sui sistemi di intelligenza artificiale ha preso forma. L'Artificial Intelligence Act (AI Act) deve ancora compiere alcuni passaggi finali per l’approvazione, ma le linee guida sono state fissate. Tra queste l'utilizzo dei software di riconoscimento facciale da parte della polizia e dei governi. L'Rbi "post-remoto", spiega in una nota il Parlamento europeo, verrà utilizzato esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.

L’accordo chiede anche ai sistemi di intelligenza artificiale di uso generale (GPAI) di rispettare gli obblighi di trasparenza prima che vengano immessi sul mercato. Necessaria quindi la stesura della documentazione tecnica, il rispetto del diritto d'autore dell'UE, e la diffusione di riassunti dettagliati sui contenuti utilizzati per la formazione. "È un momento sorico. L’Europa si è posizionata come pioniera, comprendendo l’importanza del suo ruolo di normatore globale”, ha affermato in una nota Thierry Breton, commissario Ue per il Mercato interno. "Il meglio" ha aggiunto, "deve ancora venire!".

Il riconoscimento biometrico

I sistemi di identificazione biometrica "in tempo reale", si legge nella nota dell'Ue, devono essere conformi a condizioni rigorose. L'utilizzo deve essere limitato nel tempo e nel luogo, per ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica, localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati menzionati nel regolamento: tra questi terrorismo, traffico di esseri umani, omicidio, stupro.

Vietata anche la categorizzazione biometrica per caratteristiche sensibili, come convinzioni politiche, religiose o l'etnia, la raccolta non mirata di immagini da Internet o da filmati di telecamere a circuito chiuso per creare database, il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, il social scoring e le tecniche manipolative.

I temi dell'AI Act

Nell'AI Act sono state incluse misure per proteggere il diritto d’autore, i sistemi di intelligenza artificiale dovranno essere più trasparenti, anche sul consumo di energia, e i cittadini avranno il diritto di presentare reclami sui sistemi, e ricevere spiegazioni sulle decisioni basate sui sistemi di IA ad alto rischio che hanno un impatto sui diritti delle persone.

Il testo include anche misure a sostegno dell'innovazione e delle Pmi, e un regime di sanzioni. Le multe vanno da 35 milioni di euro o il 7% del fatturato globale, a 7,5 milioni o l'1,5% del fatturato, a seconda della violazione e dell'azienda. I divieti sull’IA avranno effetto entro sei mesi, i requisiti di trasparenza in 12 mesi, e l’insieme completo di regole in circa due anni. Il rischio è che l'impianto normativo non riesca a stare al passo con i sistemi di intelligenza artificiale che evolvono sempre più velocemente.

Tre giorni di negoziati

L’incontro tra Parlamento europeo, Consiglio e Commissione è iniziato mercoledì scorso. Il 7 dicembre, dopo 22 ore di negoziati, Thierry Breton ha scritto su X: "Molti progressi sono stati fatti nelle ultime ore. I lavori con il Parlamento e il Consiglio dell’Ue riprenderanno domani alle 9:00". L’accordo finale raggiunto ha richiesto tre giorni di negoziati.

I principali punti critici sono stati la valutazione d’impatto sui diritti fondamentali, le deroghe nell’ambito della sicurezza nazionale, e i sistemi di identificazione biometrica in tempo reale e a distanza. Dopo due anni di lavoro si sta cercando di arrivare a un accordo in modo tale che ad aprile si possa votare il regolamento europeo che stabilirà per la prima volta un quadro giuridico per l'intelligenza artificiale.

Le origini dell'AI Act

L'AI Act nasce dall'esigenza di assicurare che i sistemi di intelligenza artificiale immessi sul mercato Ue “siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione”, come aveva spiegato il Consiglio europeo. Da anni i legislatori si interrogano per capire come rafforzare le norme relative alla qualità dei dati, alla trasparenza, alla supervisione umana e alla responsabilità.

In un'intervista Brando Benifei, uno degli europarlamentari che hanno lavorato all’AI Act, aveva spiegato a Fanpage.it: "Ci sono state diverse Commissioni che hanno lavorato a questo regolamento. È un percorso che ha mosso i primi passi nella prima metà di questa legislatura, iniziata nel 2019. Tutto è nato perché c’erano alcuni Paesi che stavano lavorando su una legislazione autonoma per l’intelligenza artificiale. Il rischio era quello di creare differenze tra Stato e Stato e frammentare così tutto il mercato interno."

L'Occidente a confronto

Anche Joe Biden lo scorso 30 ottobre aveva emanato un atto sull’AI, basato su una vecchia norma per il diritto all'informazione. Il provvedimento però non prevede alcun obbligo o sanzione. È un atto del presidente degli Stati Uniti, dove viene ribadito come le aziende che stanno sviluppando prodotti basati sull'intelligenza artificiale abbiano il dovere di informare l'amministrazione sui progressi.

Molto diverso l'obiettivo dell'Unione europea. L'AI Act è una legge che prevede conseguenze per chi la viola. Tra i temi che hanno rallentato l'approvazione dell'AI Act c'è sicuramente l'avvento delle nuove forme di intelligenza artificiale come ChatGPT, e la questione della privacy.

8 CONDIVISIONI
479 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views