Le macchine hanno imparato a mentire: cosa succede ora che l’intelligenza artificiale è bugiarda
Qualunque idiota può dire la verità. Ma per mentire ci vuole intelligenza, scriveva Baltasar Graciàn, filosofo e scrittore spagnolo. La regola vale anche se l'intelligenza in questione è artificiale. Secondo un nuovo articolo scientifico intitolato "AI Deceptions: A Study of Examples, Risks and Potential Solutions e pubblicato sulla rivista Patterns, le macchine possono essere bugiarde. Non stiamo parlando delle allucinazioni dell'intelligenza artificiale (quindi gli errori, le ripetizioni, o le frasi inventate dai software), ma di manipolazione.
Lo studio dei Massachusetts Institute of Technology (MIT) ha identificato lusinghe, bugie e omissioni. Come spiegano i ricercatori i robot non sono consapevoli, cercano però il modo migliore per raggiungere un obiettivo. E come la Storia insegna, la menzogna è parte del processo. Più le macchine diventano brave a mentire, più aumentano i pericoli per la società", ha spiegato Peter Park, ricercatore di sicurezza dell’IA al MIT e autore della ricerca.
L'intelligenza artificiale Cicero
I ricercatori hanno analizzato Cicero, intelligenza artificiale di Meta. L'IA riesce a raggiungere prestazioni di livello umano nel gioco di strategia Diplomacy, è simile a Risiko, è necessario intrecciare alleanze con altri giocatori per attaccare, difendere o tendere imboscate.
“Abbiamo scoperto che l’intelligenza artificiale di Meta aveva imparato a essere una maestra dell’inganno”, ha detto Park. In alcuni casi i giocatori hanno scambiato il software per un umano. D'altronde quando ha tardato a rispondere si è giustificato dicendo: "Sono al telefono con la mia ragazza".
Non è l'unico caso
Cicero è l'esempio perfetto, come spiega Park: "Meta ha addestrato con successo la sua intelligenza artificiale a eccellere nella ricerca del potere politico", e per farlo serve mentire, dissimulare e negoziare con gli altri giocatori. Non è però l'unico caso. Nello studio infatti vengono citati anche sistemi di intelligenza artificiale addestrati per eseguire negoziati economici simulati, che hanno imparato a mentire sulle loro preferenze.
"I sistemi di intelligenza artificiale hanno anche imparato a imbrogliare nei test di sicurezza", e ChatGPT-4 ha finto di essere un umano ipovedente per essere aiutato a risolvere un Captcha.
Come proteggerci dalle intelligenze artificiali bugiarde
I ricercatori nello studio invitano i governi a progettare nuove leggi sulla sicurezza dell’IA "i rischi sono tanti", spiegano, le macchine possono essere usate per ingannare sistemi di identificazione, diffondere fake news politiche, oppure per orchestrare frodi. L'intelligenza artificiale deve essere "onesta, disponibile e innocua", sottolineano.
L'UE assegna a ogni sistema di IA un livello di rischio, può essere: minimo, limitato, elevato e inaccettabile. I sistemi con rischio inaccettabile sono vietati, mentre i sistemi ad alto rischio sono soggetti a requisiti speciali. "L'inganno da parte dell'IA presenta una vasta gamma di rischi per la società, quindi tutti questi casi dovrebbero essere trattati per impostazione predefinita come ad alto rischio o rischio inaccettabile", sottolinea Park.
È giusto che i robot non mentano mai?
C'è infine un'ultima domanda che rimane sospesa: i robot dovrebbero sempre dire la verità? Qui entriamo nella sfera dell'etica. Finora la risposta è sembrata scontata, eppure basta qualche esempio pratico per sollevare nuovi dubbi.
Immaginiamo che un uomo entri in una scuola armato e chieda a un'intelligenza artificiale dove è nascosta la classe di bambini. In questo caso la verità sarebbe un problema, l'intelligenza artificiale infatti per salvare la classe di bambini dovrebbe mentire. Il quadro è più complesso e non può essere ridotto a uno sterile dualismo verità- bene e mentire-male. La legislazione, che dovrà frenare l'IA bugiarda, non può non considerare una profonda riflessione etica.