video suggerito
video suggerito
Intelligenza artificiale (IA)

Perché anche l’Onu ora ha paura dell’intelligenza artificiale

Il Consiglio di Sicurezza si è riunito per discutere sui rischi e le opportunità dell’IA. Tra le proposte, anche la creazione di un organismo delle Nazioni Unite per controllare la nuova tecnologia.
A cura di Elisabetta Rosso
44 CONDIVISIONI
REUTERS | La prima conferenza dell'Onu sull'IA
REUTERS | La prima conferenza dell'Onu sull'IA
Attiva le notifiche per ricevere gli aggiornamenti su

L'intelligenza artificiale entra di diritto nelle grandi minacce globali che le Nazioni Unite devono controllare insieme a guerra, terrorismo, epidemie, e cambiamenti climatici. "L’IA generativa ha un enorme potenziale per il bene e il male su larga scala. I suoi stessi creatori hanno avvertito che ci attendono rischi molto più grandi, potenzialmente catastrofici ed esistenziali. Senza un’azione che affronti questi rischi, siamo inadempienti rispetto alle nostre responsabilità verso le generazioni presenti e future", ha spiegato il segretario generale António Guterres. E così l'intelligenza artificiale, finisce sul tavolo dell'Onu per la la prima volta: martedì 18 luglio si è svolta la riunione del Consiglio di Sicurezza dell’Onu dedicata all’IA per definire le regole del gioco a livello globale.

Entro il 2030 si stima che le tecnologie basate sull’IA produrranno un giro d'affari da miliardi di dollari. Dietro al sogno futuristico però si nascondono zone d'ombra, come spiega Guterres: "Nemmeno i suoi creatori sanno dove l’IA può arrivare. Quello che stiamo vedendo è solo l’inizio. E sappiamo che queste tecnologie possono incrementare il livello di disinformazione, creare deepfake, o manipolare messaggi, idee, parole dette dalle persone, aumentando i rischi di discriminazioni e minacce per le minoranze”. Quello che si spalanca è un mondo ibrido dove al concetto di reale si affianca una realtà sintetica che plasma a suo volere ogni cosa. E infatti con l'arrivo dell'IA si parla già di un nuovo tipo di disinformazione, quella preventiva, in grado di generare prove di eventi che non sono mai accaduti.

A spaventare l'Onu è anche l'uso dell'intelligenza artificiale a favore della guerra, del terrorismo e della produzione di armi. E infatti entro il 2026, l’ONU dovrà e sviluppare un accordo giuridicamente vincolante che vieti l’uso dell’IA nelle armi da guerra completamente automatizzate. Non solo, il Consiglio lavorerà per proporre una regolamentazione più ampia entro la fine dell'anno, e sarà anche pubblicato un documento rivolto agli Stati con una lista di raccomandazioni sull'intelligenza artificiale.

La prima conferenza dell'Onu sull'intelligenza artificiale

Il ministro degli Esteri britannico James Cleverly, che ha presieduto l'incontro, ha spiegato che l'intelligenza artificiale "altererà radicalmente ogni aspetto della vita umana. Abbiamo urgentemente bisogno di plasmare la governance globale delle tecnologie trasformative perché l'IA non conosce confini". Propio per questo il vice ambasciatore degli Stati Uniti presso le Nazioni Unite, Jeffrey DeLaurentis, ha sottolineato che è necessaria la collaborazione tra Paesi per tutelare i diritti umani, la pace e la sicurezza.

Tutti concordano che l'intelligenza artificiale è un'arma a doppio taglio: "Ha mostrato già di poter fare molto, ma sono convinto che ciò che abbiamo visto finora sia solo l’inizio. È la prima volta che l’Onu discute di intelligenza artificiale. E lo fa portandosi dietro mesi di discussioni. Potenzialità, rischi, minacce anche dirette all’umanità intera. E tutto nasce dalla pubblicazione di ChatGPT, che ha fatto capire al mondo le potenzialità di questa tecnologia”. Guterres appoggia anche le richieste di alcuni Stati che hanno proposto di creare un nuovo organismo delle Nazioni Unite "per sostenere gli sforzi collettivi per governare questa straordinaria tecnologia", sul modello dell'Agenzia internazionale per l'energia atomica, dell'Organizzazione per l'aviazione civile internazionale o del Gruppo intergovernativo sui cambiamenti climatici.

Intelligenza artificiale e guerra

“L’uso delle armi basate su sitemi di intelligenza artificiale rappresenta un rischio per l’umanità, come l’atomica. Così come gli usi che organizzazioni terroristiche possono fare di queste tecnologie”. Per questo Guterres ha proposto tre principi cardine per arginare i rischi. L'intelligenza artificiale dovrà rispettare le leggi umanitarie, poi sarà necessario un accordo sull’uso dell’IA in ambito militare e infine dovranno essere stilate delle regole globali per impedire che la tecnologia venga utilizzata per le attività terroristiche. Come ha aggiunto Cleverly: "L’intelligenza artificiale potrebbe favorire la sconsiderata ricerca di armi di distruzione di massa da parte di attori statali e non statali. Ma potrebbe anche aiutarci a fermare la loro proliferazione”.

44 CONDIVISIONI
483 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views