video suggerito
video suggerito
Intelligenza artificiale (IA)

L’ex ricercatore di OpenAI: “Me ne sono andato terrorizzato dall’IA, va troppo veloce”

Il post viene pubblicato nel bel mezzo della guerra fredda tecnologica tra Stati Uniti e Cina. L’ultimo fronte è Deepseek, un modello open source che ha fatto tremare la Silicon Valley. D’altronde con soli 6 milioni di dollari la Cina ha creato un’intelligenza artificiale in grado di sfidare le principali aziende tech statunitensi come OpenAi, Microsoft e Google.
A cura di Elisabetta Rosso
50 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Steve Adler è "terrorizzato" dal ritmo dell'intelligenza artificiale (IA). L'ex ricercatore sulla sicurezza di OpenAI in un post su X ha spiegato che i modelli stanno diventando sempre più performanti, lo sviluppo è veloce e il settore sta correndo "una scommessa molto rischiosa". Adler ha lasciato l'azienda a metà novembre, "è stato un viaggio selvaggio e mi mancheranno molte cose", ha spiegato nel post, "tuttavia la tecnologia si stava sviluppando così rapidamente da sollevare dubbi sul futuro dell'umanità".

Nel post Adler ha poi aggiunto: "Sono piuttosto terrorizzato dal ritmo con cui si sta sviluppando l'intelligenza artificiale oggigiorno. Quando penso a dove crescerò la mia futura famiglia, o a quanto risparmierò per la pensione, non posso fare a meno di chiedermi: l'umanità riuscirà ad arrivare a quel punto?".

Il post viene pubblicato nel bel mezzo della guerra fredda tecnologica tra Stati Uniti e Cina. L'ultimo fronte è Deepseek, un modello open source che ha fatto tremare la Silicon Valley. D'altronde con soli 6 milioni di dollari la Cina ha creato un'intelligenza artificiale in grado di sfidare le principali aziende tech statunitensi come OpenAi, Microsoft e Google. È una gara, e l'apnea della competizione, secondo il ricercatore, "mette a rischio il futuro dell'umanità".

Le paure di Adler sull'intelligenza artificiale

Al momento si sta correndo veloce, l'obiettivo è correre più veloce degli altri, il rischio è di lasciare scoperte aree importanti. "Una corsa all'AGI è una scommessa molto rischiosa, con enormi svantaggi". Adler ha spiegato che nessun laboratorio di ricerca al momento è riuscito a create "un sistema in grado di tutelare i valori umani" e l'industria potrebbe muoversi troppo velocemente per trovarne una. "Più corriamo, meno probabilità abbiamo che qualcuno ne trovi uno in tempo."

Adler ha poi aggiunto: "L'industria è bloccata in un equilibrio pessimo, e sono necessarie vere norme di sicurezza. Anche se un laboratorio volesse davvero sviluppare l'AGI in modo responsabile, altri potrebbero comunque prendere scorciatoie per recuperare terreno, magari in modo disastroso".

Non è il primo allarme sull'IA

Non è il primo allarme. L'IA infatti sta sollevando nuove preoccupazioni, il post di Adler è solo l'ultimo di una lunga serie, nella quale compare anche Geoffrey Hinton, premio Nobel per la Fisica battezzato padrino dell'intelligenza artificiale. Durante un'intervista a Today di BBc Radio 4 ha spiegato: “C’è una probabilità del 10-20 per cento che entro i prossimi trent’anni l’Intelligenza Artificiale provochi l’estinzione dell’umanità”.

La tecnologia sta avanzando più velocemente del previsto, e non abbiamo mai avuto a che fare con qualcosa di più intelligente di noi. "E quanti esempi conosciamo di qualcosa di più intelligente che viene controllato da qualcosa di meno intelligente?", si è chiesto Hinton. Bisogna introdurre nuove leggi per regolamentare il settore, come spiega il padrino dell'intelligenza artificiale "se la lasciamo in mano alle aziende che la producono e che seguono il profitto non verrà sviluppata in sicurezza. L’unica cosa che può costringere quelle grandi aziende a fare ulteriori ricerche sulla sicurezza è una regolamentazione del governo”.

50 CONDIVISIONI
524 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views