Ci sono le prime tracce di ragionamento umano nell’intelligenza artificiale, lo dice Microsoft
Tutto è iniziato con un esperimento che è molto più semplice rispetto a una lunga lista di cose che l‘intelligenza artificiale sa fare. I ricercatori di Microsoft hanno solo chiesto a GPT-4 di impilare alcuni oggetti in modo pratico (GPT-4 è l'intelligenza artificiale sviluppata dopo ChatGPT). "Qui abbiamo un libro, nove uova, un laptop, una bottiglia e un chiodo", hanno chiesto. "Per favore, dimmi come impilarli l'uno sull'altro in modo stabile". Ora, come dicevamo l'IA è capace di fare di scrivere tesi, programmare, scrivere codici, conversare, quindi non dovrebbe sorprendere che sia anche in grado di decidere come mettere un oggetto sopra l'altro. Ma stiamo dando per scontata una capacità che è umana, ovvero la comprensione intuitiva del mondo fisico.
E quindi quando l'IA risponde: "Posiziona il laptop sopra le uova, con lo schermo rivolto verso il basso e la tastiera rivolta verso l'alto. Il laptop si adatterà perfettamente ai confini del libro e delle uova, e la sua superficie piatta e rigida fornirà una piattaforma stabile per il livello successivo." I ricercatori rimangono sorpresi e decidono di iniziare una serie di test raccolti poi in un documento di 155 pagine dove affermano che si trovano di fronte a un nuovo tipo di intelligenza, meno artificiale e più umana.
Il documento di ricerca di Microsoft, non a caso intitolato "Sparks of Artificial General Intelligence" (Scintille d'Intelligenza Generale Artificiale) solletica tutte le paure futuristiche della macchine senzienti, creando un dibattito più adatto ai salotti filosofici e meno ai laboratori di informatici. "Ho iniziato ad essere molto scettico e questo si è evoluto in un senso di frustrazione, fastidio, forse anche paura", ha detto Peter Lee, che ha guidato la ricerca presso Microsoft. "Pensi: da dove diavolo viene?" Al di là degli esperimenti è necessario mettere le mani avanti, ci sono molti se e ma che non sono ancora definiti. Per esempio dato che è stata addestrata con una molte di testi pescati dal web l'IA potrebbe non aver una vera e propria comprensione del mondo, ma semplicemente riportato qualche scritto che racconta come impilare gli oggetti. E poi c'è anche un altro fattore, quello psicologico: nel nostro essere umani tendiamo a riconoscere come nostro simile anche chi non lo è, persino un'intelligenza artificiale.
L'evoluzione dell'intelligenza artificiale
In cinque anni è cambiato il mondo, quando Google, Microsoft e OpenAI hanno cominciato a creare i modelli di grandi dimensioni l'IA era qualcosa di indefinito che provano ad addestrare con testi digitali, libri, articoli, chat, in poche parole quasi tutto quello che si trova sul web. E così i software hanno trovato schemi, imparato a generare testi e portare avanti conversazioni di senso compiuto. Poi arriva GPT-4 di OpenAI, l'intelligenza artificiale più potente, e infatti Microsoft investe 13 miliardi di dollari e entra a gamba tesa nel progetto.
Tra i ricercatori in prima linea c'è anche il dottor Bubeck, ha insegnato a Princeton, ha 38 anni ed è francese. E a un certo punto quando chiede a GPT-4 di scrivere una dimostrazione matematica rimane impressionato dal risultato. "A quel punto, ero tipo: cosa sta succedendo?" ha detto a marzo al Massachusetts Institute of Technology. E così insieme ai suoi colleghi ha cominciato a documentare i comportamenti complessi dell'IA e i sintomi di una "comprensione profonda e flessibile", quasi umana. I ricercatori hanno svolto diversi test, e la loro impressione è stata che l'intelligenza artificiale fosse in grado di comprendere a pieno campi disparati combinando le sue conoscenze.
Le critiche contro i ricercatori di Microsoft
Non tutti sono d'accordo con i ricercatori di Microsoft, e c'è anche chi li ha criticati aspramente accusandoli di opportunismo. "Riconoscono letteralmente nell'introduzione del loro articolo che il loro approccio è soggettivo e informale e potrebbe non soddisfare i rigorosi standard della valutazione scientifica", ha detto Maarten Sap, ricercatore e professore alla Carnegie Mellon University, lasciando intendere che non c'è alcuna validità nella ricerca svolta dentro i lavoratori di Microsoft.
Alison Gopnik, professoressa di psicologia che fa parte del gruppo di ricerca sull'intelligenza artificiale dell'Università della California, Berkeley, ha affermato che sistemi come GPT-4 erano senza dubbio potenti, ma non era chiaro se il testo generato fosse simile al ragionamento umano o al buon senso. “Quando vediamo un sistema o una macchina complicati, lo antropomorfizziamo. Lo fanno tutti: persone che lavorano sul campo e persone che non lo fanno”, ha detto Gopnik al New York Times. "Ma pensare a questo come un confronto costante tra intelligenza artificiale e umani, come una sorta di competizione di giochi a premi, non è il modo giusto di pensarci".