Cosa sappiamo sul Progetto Q* e sull’IA che minaccia l’umanità: Sam Altman commenta la fuga di notizie
Non è chiaro cosa stia succedendo dentro i laboratori di Open AI, dopo il tentato colpo di stato contro Sam Altman, alcuni dipendenti hanno scritto al consiglio di amministrazione dell'azienda una lettera per informarli di una nuova scoperta che potrebbe "minacciare l'umanità". Sappiamo pochissimo, solo che il progetto Q* potrebbe essere un problema, "non è pronto per essere commercializzato, perché è coperto da un velo di ignoranza", hanno spiegato i ricercatori. Sam Altman dopo il suo ritorno ha parlato con la testata The Verge. Rimangono ancora molti dubbi, il Ceo di OpenAI ha infatti spiegato: "Non voglio dare nessun commento particolare su questa sfortunata fuga di notizie. Ma quello che abbiamo detto due settimane fa, quello che diciamo oggi, quello che dicevamo un anno fa, è che ci aspettiamo che i progressi in questa tecnologia continuino a essere rapidi, continueremo a lavorare molto duramente per capire come renderla sicura e vantaggiosa. Ecco perché ci alziamo tutti i giorni prima. Penso che siamo stati straordinariamente coerenti su questo punto."
Ha poi aggiunto: "Crediamo che il progresso sia ricerca. Puoi sempre scontrarti con un muro, ma prevediamo che i progressi continueranno a essere significativi. E vogliamo interagire con il mondo a questo proposito e capire come renderlo il migliore possibile." La lettera dei ricercatori coordinati da Altman sarebbe arrivata al consiglio di amministrazione quattro giorni prima del suo licenziamento temporaneo. Le preoccupazioni scritte nella testo sarebbero, secondo il team, uno dei motivi principali dietro all'allontanamento del Ceo. Lo stesso Altman, durante un summit a San Francisco, aveva rivelato: "Per quattro volte nella storia di OpenAI, l'ultima delle quali nelle ultime due settimane, ho avuto la possibilità di essere nella stanza in cui si spinge il velo dell'ignoranza indietro e la frontiera della scoperta in avanti, e poterlo fare è l'onore professionale di una vita".
Cosa sappiamo sul progetto Q*
Non si sa molto di questo nuovo programma, nemmeno perché dovrebbe fare così tanta paura. D'altronde la ricerca sull'intelligenza artificiale (IA) è in mano a poche aziende private che rilasciano più slogan allarmisti che dati. Come ha spiegato a Fanpage.it Luca Iocchi professore Ordinario di Ingegneria Informatica, Automatica e Gestionale all'Università La Sapienza di Roma: "Non sappiamo nulla di questo progetto, possiamo però fare un ragionamento più ampio su AGI, (Artificial General Intelligence), che è un’estensione di alcuni sistemi di IA in grado di svolgere diversi problemi. Sono multitask IA, in contrapposizione con l’IA che riesce a risolvere un solo problema. Di Q* sappiamo solo che genericamente ha capacità di ragionamento e calcolo matematico pari a quelle di uno studente delle elementari."
I rischi della nuova intelligenza artificiale
Il rischio in generale è sempre l'impatto sociale di una tecnologia come quella sviluppata dal team di Q*. Tutte le nuove tecnologie possono essere pericolose se non governate bene. "L'AGI potrebbe impattare in modo negativo sulla qualità della vita o sul lavoro delle persone", aveva aggiunto Iocchi. "Il problema principale non sono tanto le capacità di una nuova tecnologia, ma la velocità con la quale si diffonde. L'intelligenza artificiale evolve in modo più rapido rispetto alle tecnologie del passato che sono state assorbite dalla società nell’arco di anni."
Ora ChatGPT è in grado di scrivere testi, rispondere alle domande, fare ricerche. Per sviluppare abilità matematiche serve una capacità di ragionamento che va ben oltre l'accostamento di frasi ripescate dal web. Una fonte interna, che è rimasta anonima, ha rivelato a Reuters che i test svolti dal progetto Q* hanno dato risultati positivi, l'IA è stata in grado di risolvere le prime operazioni matematiche, ma il modello non è pronto per essere lanciato sul mercato, "c'è ancora troppa poca consapevolezza", scrivono nella lettera.
Le confessioni di Sam Altman
Durante l'intervista non ha toccato i temi caldi, spiegato il motivo del licenziamento, o aggiunto dettagli su progetto Q*. Ha solo aggiunto: "Quando il consiglio di amministrazione di OpenAI mi ha chiesto di tornare il giorno dopo mi ci sono voluti alcuni minuti per riprendermi e superare l'ego e le emozioni, poi ho detto: Sì, certo che voglio farlo. Ovviamente, amo davvero l'azienda e ho dedicato anima e corpo negli ultimi quattro anni e mezzo. E stiamo facendo grandi progressi nella missione a cui tengo così tanto, la missione di un’AGI sicura e vantaggiosa”.
Ha anche spiegato che il temporaneo licenziamento è stato utile per capire che "l'azienda può davvero funzionare senza di me, e questa è una cosa molto bella. Sono molto felice di essere tornato, non fraintendermi su questo. Ma torno senza lo stress di: Oh cavolo, devo farlo, o l'azienda ha bisogno di me o altro. Egoisticamente mi sento bene perché o ho scelto grandi leader o li ho guidati bene. È molto bello sentire che la società andrà benissimo senza di me, e che la squadra è pronta e ha fatto un salto di qualità."