L’ex ricercatore di OpenAI: “Me ne sono andato terrorizzato dall’IA, va troppo veloce”
Steve Adler è "terrorizzato" dal ritmo dell'intelligenza artificiale (IA). L'ex ricercatore sulla sicurezza di OpenAI in un post su X ha spiegato che i modelli stanno diventando sempre più performanti, lo sviluppo è veloce e il settore sta correndo "una scommessa molto rischiosa". Adler ha lasciato l'azienda a metà novembre, "è stato un viaggio selvaggio e mi mancheranno molte cose", ha spiegato nel post, "tuttavia la tecnologia si stava sviluppando così rapidamente da sollevare dubbi sul futuro dell'umanità".
Nel post Adler ha poi aggiunto: "Sono piuttosto terrorizzato dal ritmo con cui si sta sviluppando l'intelligenza artificiale oggigiorno. Quando penso a dove crescerò la mia futura famiglia, o a quanto risparmierò per la pensione, non posso fare a meno di chiedermi: l'umanità riuscirà ad arrivare a quel punto?".
Il post viene pubblicato nel bel mezzo della guerra fredda tecnologica tra Stati Uniti e Cina. L'ultimo fronte è Deepseek, un modello open source che ha fatto tremare la Silicon Valley. D'altronde con soli 6 milioni di dollari la Cina ha creato un'intelligenza artificiale in grado di sfidare le principali aziende tech statunitensi come OpenAi, Microsoft e Google. È una gara, e l'apnea della competizione, secondo il ricercatore, "mette a rischio il futuro dell'umanità".
Le paure di Adler sull'intelligenza artificiale
Al momento si sta correndo veloce, l'obiettivo è correre più veloce degli altri, il rischio è di lasciare scoperte aree importanti. "Una corsa all'AGI è una scommessa molto rischiosa, con enormi svantaggi". Adler ha spiegato che nessun laboratorio di ricerca al momento è riuscito a create "un sistema in grado di tutelare i valori umani" e l'industria potrebbe muoversi troppo velocemente per trovarne una. "Più corriamo, meno probabilità abbiamo che qualcuno ne trovi uno in tempo."
Adler ha poi aggiunto: "L'industria è bloccata in un equilibrio pessimo, e sono necessarie vere norme di sicurezza. Anche se un laboratorio volesse davvero sviluppare l'AGI in modo responsabile, altri potrebbero comunque prendere scorciatoie per recuperare terreno, magari in modo disastroso".
Non è il primo allarme sull'IA
Non è il primo allarme. L'IA infatti sta sollevando nuove preoccupazioni, il post di Adler è solo l'ultimo di una lunga serie, nella quale compare anche Geoffrey Hinton, premio Nobel per la Fisica battezzato padrino dell'intelligenza artificiale. Durante un'intervista a Today di BBc Radio 4 ha spiegato: “C’è una probabilità del 10-20 per cento che entro i prossimi trent’anni l’Intelligenza Artificiale provochi l’estinzione dell’umanità”.
La tecnologia sta avanzando più velocemente del previsto, e non abbiamo mai avuto a che fare con qualcosa di più intelligente di noi. "E quanti esempi conosciamo di qualcosa di più intelligente che viene controllato da qualcosa di meno intelligente?", si è chiesto Hinton. Bisogna introdurre nuove leggi per regolamentare il settore, come spiega il padrino dell'intelligenza artificiale "se la lasciamo in mano alle aziende che la producono e che seguono il profitto non verrà sviluppata in sicurezza. L’unica cosa che può costringere quelle grandi aziende a fare ulteriori ricerche sulla sicurezza è una regolamentazione del governo”.