Perché sette Big tech hanno messo un freno all’intelligenza artificiale: cosa sta succedendo
Sette aziende leader dell'intelligenza artificiale hanno deciso di salvaguardare volontariamente lo sviluppo della tecnologia. L'annuncio arriva proprio nel bel mezzo della gara. Mentre le aziende gareggiano con le nuove macchine in grado di generare mondi a partire da una stringa di testo, arriva una prima battuta d'arresto. Perché l'intelligenza artificiale non è solo questo. Dietro i chatbot geniali c'è anche disinformazione preventiva, privacy violata, lavori automatizzati, e deepfake.
Per questo Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, hanno deciso di aderire ai nuovi standard di sicurezza durante un incontro, venerdì 21 luglio, con Joe Biden alla Casa Bianca. "Dobbiamo essere lucidi e vigili sulle minacce che le tecnologie emergenti possono rappresentare per la nostra democrazia e i nostri valori", ha spiegato il presidente. “Questa è una grande responsabilità, dobbiamo lavorare bene." Hanno così deciso di filigranare i contenuti prodotti dall'IA per renderli riconoscibili e accettare test di controllo da esperti indipendenti. È un primo passo provvisorio, l'autoregolamentazione delle aziende non può essere la soluzione, servono quadri normativi solidi per accompagnare l'evoluzione dell'intelligenza artificiale. E infatti proprio questa settimana il Consiglio di Sicurezza dell'Onu si è riunito per discutere dei rischi dell’IA. Tra le proposte, c'è anche la creazione di un organismo delle Nazioni Unite per controllare la nuova tecnologia.
La prima mossa delle Big tech
"Siamo lieti di assumere questi impegni volontari insieme ad altri nel settore", ha dichiarato in una nota Nick Clegg, presidente degli affari globali di Meta. "Sono un primo passo importante per garantire che vengano stabiliti guardrail responsabili per l'IA e creare un modello da seguire per altri governi". Come dicevamo, le società oltre alle filigrane per identificare i contenuti, hanno anche acconsentito a sottoporre le loro IA ad analisi svolte da esperti indipendenti per testare pregiudizi, e problemi di privacy. L'amministrazione Biden ha spiegato: "Le aziende devono garantire che l'innovazione non vada a scapito dei diritti e della sicurezza degli americani. Le aziende che stanno sviluppando queste tecnologie emergenti hanno la responsabilità di assicurare che i loro prodotti siano sicuri".
Brad Smith, presidente di Microsoft, presente alla riunione della Casa Bianca, ha sottolineato che la sua azienda ha approvato le misure di salvaguardia volontarie: "Ci siamo mossi rapidamente, gli impegni della Casa Bianca creano una base per aiutare a garantire che la promessa dell'IA rimanga al di sopra dei suoi rischi". Anna Makanju, vicepresidente degli affari globali di OpenAI, ha invece sottolineato che l'azienda "continua a lavorare con governi, organizzazioni, e altri attori in tutto il mondo per far progredire la governance dell'IA".
Le nuove regole non sono sufficienti
Le regole concordate, come dicevano, sono necessarie ma non sufficienti. Possono essere interpretate a seconda delle esigenze in modo diverso da ogni azienda. Paul Barrett, vicedirettore dello Stern Center for Business and Human Rights della New York University, ha spiegato che servono misure più stringenti: "Gli impegni volontari annunciati oggi non sono applicabili, motivo per cui è fondamentale che il Congresso, insieme alla Casa Bianca, elabori subito una legislazione che promuova la trasparenza, la protezione della privacy e una ricerca intensificata sull'ampia gamma di rischi posti dall'IA generativa".
Il ritardo degli Stati Uniti
Gli Stati Uniti sono in ritardo, stanno arrancando dietro all'Unione europea che ha già stabilito le linee guida per affrontare la regolamentazione dell'intelligenza artificiale. Il Parlamento dell'Unione europea il 14 giugno in riunione plenaria ha approvato il primo regolamento al mondo che vuole normare l’intelligenza artificiale. Tra i relatori di questo dossier c’è l’europarlamentare italiano Brando Benifei (PD), che in un’intervista a Fanpage.it ha spiegato come verrà applicato l'Ai Act: "Ci sono tre categorie per le applicazioni dell’intelligenza artificiale: basso rischio, alto rischio e rischio inaccettabile. Negli ambiti con rischio inaccettabile sono quelli in cui l’intelligenza artificiale è vietata, come il riconoscimento biometrico o gli usi legati alla polizia predittiva. Fra gli ambiti ad alto rischio poi ci sono tutti quei settori che riguardano lo sviluppo cognitivo dei bambini." Ora tutto il documento dovrà essere discusso con il Consiglio degli Stati Membri e con la Commissione Europea.