“Rischiamo lo scenario Bin Laden dell’IA”: la profezia dell’ex capo di Google

"Ho paure diverse dagli altri", dice Eric Schmidt, ex Ceo di Google. "Sono tanti i rischi legati all‘intelligenza artificiale ma io penso a quelli estremi". Il miliardario ha spiegato ai microfoni di Today, programma della Bbc che l'IA potrebbe essere utilizzata per realizzare lo "scenario Bin Laden", in altre parole diventare uno strumento degli stati canaglia per "danneggiare persone innocenti". Schmidt pensa all'Iran, alla Corea del Nord, e anche la Russia. "Non mi stupirei se utilizzassero la tecnologia per creare armi biologiche".
Il progresso all'inizio è spinto da una forza inerziale, non ci sono barriere, regole, l'importante è arrivare prima degli altri, una dinamica comune quando si parla di nuove tecnologie. L'intelligenza artificiale non fa eccezione, e infatti centinaia di aziende stanno marciando a ritmo serrato per rimanere competitive. E i guardrail sono solo un ostacolo lungo la strada che porta al traguardo. È chiaro quindi che le aziende non hanno alcun interesse a regolamentare, almeno per il momento il settore, e questo è un problema.
"La verità è che l'intelligenza artificiale e il futuro saranno in gran parte costruiti da aziende private", ha spiegato Schmidt. "È davvero importante che i governi capiscano cosa stanno facendo e le tengano d'occhio. È fondamentale che l'intelligenza artificiale non si sviluppi senza una supervisione, i sistemi devono essere regolamentati".
Cos'è lo scenario Bin Laden dell'IA
"Pensate alla Corea del Nord, all'Iran o persino alla Russia, Paesi che hanno obiettivi malvagi", ha detto Schmidt. "Questa tecnologia è sufficientemente veloce da essere utilizzata in tempi brevi e persone malvagie potrebbero abusarne, causando danni reali". I sistemi di intelligenza artificiale nelle mani sbagliate potrebbero essere utilizzati, secondo Schmidt, per costruire armi sofisticate o pianificare attacchi mirati.
"Sono sempre preoccupato per lo scenario ‘Osama Bin Laden', in cui c'è una persona veramente malvagia che prende il controllo di un aspetto della nostra vita moderna e lo usa per fare del male a persone innocenti", ha spiegato. Quello di Schmidt non è il primo allarme, anzi. Secondo Geoffrey Hinton, premio Nobel per la Fisica battezzato padrino dell'intelligenza artificiale, “c'è una probabilità del 10-20 per cento che entro i prossimi trent’anni l’Intelligenza Artificiale provochi l’estinzione dell’umanità”.
Il paradosso della regolamentazione dell'IA
La corsa dell'intelligenza artificiale non è limitata alle aziende che vogliono gonfiare i profitti, ma ha anche un valore geopolitico, come ha mostrato bene il caso Deepseek. Il Paese che genera l'IA più performante, economica e accessibile ha un vantaggio, e le regole rallentano. Non stupisce quindi che il vicepresidente degli Stati Uniti JD Vance sia contrario alla regolamentazione dei sistemi,"ucciderebbe un settore in trasformazione proprio nel momento in cui sta decollando", ha dichiarato.
Eppure le tecnologia sta avanzando più velocemente del previsto, e non abbiamo mai avuto a che fare con qualcosa di più intelligente di noi. "E quanti esempi conosciamo di qualcosa di più intelligente che viene controllato da qualcosa di meno intelligente?", si è chiesto Hinton. Bisogna introdurre nuove leggi per regolamentare il settore, anche a costo di rallentare il progresso, "se la lasciamo in mano alle aziende che la producono e che seguono il profitto non verrà sviluppata in sicurezza. L’unica cosa che può costringere quelle grandi aziende a fare ulteriori ricerche sulla sicurezza è una regolamentazione del governo”