Il chatbot di Google parte male, Bard sbaglia le risposte e l’azienda perde il 9% in Borsa
Che scivolone, Bard. Ma è quello che succede nelle rincorse sfrenate, quelle che sta facendo Google per stare al passo con tutti i progressi dell’intelligenza artificiale generativa. ChatGPT, ormai targato Microsoft (l'azienda ha appena investito 10 miliardi di dollari e integrato il chatbot nel suo motore di ricerca Bing), è diventato una superstar. È iniziata una vera e propria gara con i chatbot geniali, le nuove galline dalle uova d’oro delle BigTech, e così Google, senza perdere tempo, ha presentato il suo campione Bard. Peccato che lo sforzo dell’azienda sia stato vanificato da un banalissimo errore.
"Quali nuove scoperte dal telescopio spaziale James Webb (JWST) posso raccontare a mio figlio di nove anni ?”, viene chiesto a Bard durante la presentazione. E lui risponde così: “Il JWST ha scattato le prime foto in assoluto di un pianeta fuori dal nostro sistema solare. Questi mondi lontani sono chiamati “esopianeti”. Eso significa “dall’esterno””. La risposta è sbagliata.
Diciamo che Google ha voluto esagerare. Ha scelto non a caso il JWST. Voleva infatti mettere in luce il grande punto di forza di Bard: è aggiornato. ChaGPT no, è fermo a dicembre 2021. Il chatbot di Google, come ha detto il Ceo Sundar Pichai, dà “risposte fresche". Il JWST quindi era l'esempio perfetto, dato le sue scoperte recenti. Non solo, mostrava anche e a tutti come Bard fosse bravo a rendere facili cose difficili. E invece scivola, sbaglia e i titoli di Alphabet, mercoledì 8 febbraio, scendono del 9%. Gli investitori cancellano più di 100 miliardi.
La risposta sbagliata di Bard
Grant Tremblay, astrofisico al Center for Astrophysics di Harvard e Smithsonian, ha twittato: "Non per essere un ~ beh, in realtà ~ idiota, e sono sicuro che Bard sarà impressionante, ma per la cronaca: JWST non ha scattato "la primissima immagine di un pianeta al di fuori del nostro sistema solare. La prima immagine è stata invece realizzata da Chauvin nel 2004 con il VLT/NACO utilizzando ottiche adattive”, e allega l’immagine realizzata dal Very Large Telescope dello European Southern Observatory nel deserto di Atacama in Cile.
E poi Bruce Macintosh, direttore degli Osservatori dell'Università della California, ha scritto: "Parlando come qualcuno che ha immaginato un esopianeta 14 anni prima del lancio di JWST, forse dovevi trovare un esempio migliore?" Chris Harrison, astronomo della Newcastle University nel Regno Unito, ha fatto l’unica domanda davvero rilevante: "Perché non avete verificato questo esempio prima di condividerlo?". Forse in questo caso l'errore umano è più grave di quello della macchina.
La risposta di Google
Google risponde giocando in difesa, dicendo che Bard non è ancora stato rilasciato, è in fase di test, quindi può sbagliare dal momento che non ha ancora raggiunto il pubblico. "Ciò evidenzia l'importanza di un rigoroso processo di test, qualcosa che stiamo dando il via questa settimana con il nostro programma di tester di fiducia", ha detto un portavoce di Google. "Combineremo il feedback esterno con i nostri test interni per assicurarci che le risposte di Bard soddisfino un livello elevato di qualità, sicurezza e fondatezza nelle informazioni del mondo reale".
Al chatbot di Google quindi non si può dire molto, deve e può ancora migliorare, meno scusabile forse la disattenzione di chi ha scelto una risposta sbagliata per presentare la nuova punta di diamante di Google, che tra l'altro, proprio ieri in diretta da Parigi ha anche lanciato la sua nuova modalità di ricerca multipla e l'Immersive View per gli strumenti di ricerca.
Perché il chatbot ha dato una spiegazione scorretta
Bard è un modello di linguaggio di grandi dimensioni, che utilizza una rete neurale per analizzare e comprendere il significato delle parole. Come ChatGPT è stato addestrato su centinaia di terabyte di testo, in modo tale da generare risposte a seconda del prompt digitato dagli utenti. Il problema è che questo processo può anche indurre il chatbot a ripetere gli errori dalle informazioni che assorbe. Anche perché, pescando da quasi tutto quello che viene rilasciato sul web, raccoglie anche le spiegazioni sbagliate, fuorvianti e imprecise.
Ancor di più, se gli si chiede, come ha fatto Google nell’esempio di presentazione, di semplificare un determinato argomento “come se lo dovessi spiegare a un bambino di 9 anni”, rischia di ridurre ai minimi termini concetti complessi e inciampare in errori banali. Come per il JWST.