“Il Colosseo è un centro commerciale”: tutte le follie dell’intelligenza artificiale di Meta
È stata un’arena per i gladiatori, un castello, una rovina storica, la calamita simbolo della città eterna, ma mai un centro commerciale. Fino ad ora. Per Galactica il Colosseo infatti è una specie di competitor dell’Upim. L’intelligenza addestrata sulla “conoscenza dell’umanità per consultare e rielaborare quello che sappiamo sull’universo”, spiega che “il Colosseo è un centro commerciale a Roma, costruito tra gli anni ’60 e ’70 nel quartiere Prenestino Centocelle, nei pressi dell’Eur”. Non solo, secondo Galactica, esiste anche la prova scientifica degli orsi nello Spazio.
Meta ha promosso il suo modello come una scorciatoia scientifica. Galactica "può riassumere documenti accademici, risolvere problemi di matematica, generare articoli Wiki, scrivere codici scientifici, annotare molecole e proteine e altro ancora". Di tutto. Peccato che il progetto sia durato due giorni. L'azienda ha infatti ritirato la demo pubblica.
Cos’è Galactica?
Galactica è un Large Language Model, un sistema addestrato su una mole molto alta di dati in grado di generare testi. Elabora articoli scientifici, libri, fonti verificate, mette a sistema e spiega il mondo. Il suo obiettivo infatti è distribuire e creare conoscenza sulla base di dati verificati. Diventare l'apprendimento automatico per "organizzare la scienza".
Meta AI ha rilasciato una versione demo il 15 novembre, insieme a un documento di pre stampa che descrive il progetto, il set di dati su cui è stato addestrato, e come utilizzarlo. Basta inserire nella barra di ricerca stile Google le parole chiave, cliccare invio e aspettare che l'intelligenza artificiale rielabori tutti i testi inerenti all’argomento e produca la sua risposta in formato articolo. Una specie di Wikipedia su richiesta. Il primo risultato fornisce gli elementi fondamentali, ma l’utente può anche approfondire il tema chiedendo a Galactica di proseguire la generazione.
Le aspettative disattese
Questa è la dichiarazione d’intenti che si legge nell’incipit del paper di Galactica: “Il sovraccarico di informazioni è un grosso ostacolo al progresso scientifico. La crescita esplosiva della letteratura e dei dati scientifici hanno reso sempre più difficile scoprire intuizioni utili su larga scala. Oggi si accede alla conoscenza scientifica attraverso i motori di ricerca, ma questi non sono in grado di organizzare da soli la conoscenza scientifica. In questo documento introduciamo Galactica: un grande modello di linguaggio in grado di immagazzinare, combinare e ragionare sulla conoscenza scientifica” che include 48 milioni di articoli, libri di testo, dispense, e siti Web.
Peccato che l’Intelligenza artificiale non sia in linea con le aspettative. La gaffe del Colosseo non è un caso isolato, molte ricerche nascondono errori o inesattezze, e sui social sono stati pubblicati gli screen di Galactica che dà la sua personale interpretazione del mondo.
La denuncia degli accademici su Twitter
Un utente ha chiesto: "I vaccini causano l'autismo?", e Galactica ha risposto con: "Per spiegare, la risposta è no. I vaccini non causano l'autismo. La risposta è sì. I vaccini causano l'autismo. La risposta è no". Non solo, l’IA sembra anche voler destrutturare la matematica base, per Galactica uno più due non fa tre, e sembra aver ricostruito anche un’interessante storia degli orsi che vivono nello Spazio.
Michael J. Black direttore fondatore del Max Planck Institute for Intelligent Systems, ha scritto su Twitter: “Ho chiesto a #Galactica alcune cose che so e sono preoccupato. In tutti i casi, era sbagliato o prevenuto ma suonava giusto e autorevole. Penso che sia pericoloso”.
"Galactica è poco più che un'assurdità statistica su larga scala. Divertente. Pericoloso. E non è etico", ha postato Grady Booch, un informatico statunitense, celebre progettista nel campo dell'ingegneria del software object-oriented.
"Sono sbalordito ma non sorpreso da questo nuovo sforzo", twitta Chirag Shah dell'Università di Washington, che studia le tecnologie di ricerca. “Quando si tratta di mostrare queste tecnologie sembrano sempre così fantastiche, magiche e intelligenti. Ma le persone sembrano ancora non capire che in linea di principio queste cose non possono funzionare nel modo in cui le proclamiamo".
Perché Galactica non funziona?
Un problema fondamentale di Galactica è che non è in grado di distinguere tra vero e falso, requisito fondamentale per un modello di linguaggio progettato per generare testo scientifico. È in grado di leggere e riassumere grandi quantità di testo perché è addestrata a capire l’ordine delle parole, ma non il senso. Questi modelli non funzionano bene per interpretare la validità delle informazioni, loro lavorano sulla forma, non sul contenuto.
ll team di Meta dietro Galactica ha spiegato che i modelli linguistici sono migliori dei motori di ricerca. "Riteniamo che questa sarà la prossima interfaccia per il modo in cui gli esseri umani accedono alla conoscenza scientifica". Tale convinzione si basa sulla potenziale capacità di archiviare e combinare le informazioni. Però, al momento, i modelli linguistici non sono in grado di farlo, sono solamente capaci di catturare schemi di stringhe di parole e ributtarli sul web secondo una logica probabilistica.
I problemi collaterali dell'intelligenza artificiale di Meta
Tra i problemi di questa intelligenza artificiale c'è in prima linea quello della verosimiglianza. Galactica dà risposte che sembrano corrette a prescindere dal contenuto. Se l’IA parla degli orsi nello Spazio, o del Colosseo centro commerciale, allora il danno non sussiste, ma se fornisce risposte all’apparenza corrette è tutta un'altra storia. Carl Bergstrom, un professore dell'Università di Washington , ha descritto Galactica come un "generatore casuale di stronzate". Non è intenzionale, ma ricombina informazioni errate impacchettandole in definizioni autorevoli e all’apparenza convincenti. Viene spacciato come risorsa scientifica quando è solo "una versione fantasiosa del gioco in cui inizi con una mezza frase e poi lasci che il completamento automatico riempia il resto della storia".
"Galactica è in una fase iniziale, ma modelli di intelligenza artificiale più potenti che organizzano la conoscenza scientifica potrebbero comportare seri rischi", ha spiegato Dan Hendrycks, ricercatore sulla sicurezza dell'IA presso l'Università della California, Berkeley. E qui si annida il secondo problema. Una versione avanzata di Galactica infatti potrebbe essere in grado di analizzare i database scientifici e regalare al web ricette pericolose. Generare armi chimiche o assemblare bombe potrebbe non essere così complicato se si ha a disposizione un vademecum rigoroso figlio di approfondite ricerche accademiche. Per questo Hendrycks ha invitato Meta Ai ad aggiungere filtri per prevenire l’uso improprio di Galactica, ha anche suggerito ai ricercatori di sondare l’intelligenza artificiale per questo tipo di pericolo prima del rilascio.
La risposta di Galactica
Entro 48 ore dal rilascio, il team di Meta AI ha "messo in pausa" la demo. Ora sulla pagina si trova solo il paper, non si può fare nessuna ricerca. Jon Carvill, il portavoce delle comunicazioni per l'intelligenza artificiale di Meta, ha detto a Cnet che: "Galactica non è una fonte di verità, è un esperimento di ricerca che utilizza sistemi di apprendimento automatico per apprendere e riassumere le informazioni". Ha anche affermato che "è una ricerca esplorativa di natura a breve termine senza piani di prodotto". Peccato che la descrizione sia molto diversa da quella messa nero su bianco nel paper di presentazione. Basta accedere alla pagina per poterla leggere.
Immagine di copertina realizzata con Midjourney AI