Il video in cui Google svela la potenza della sua intelligenza artificiale forse non è così vero
Il 6 dicembre Google ha lanciato Gemini, un nuovo modello di intelligenza artificiale. Certo, in questa epoca storica più o meno ogni giorno vengono presentate nuove applicazioni basate su questa famiglia di algoritmi. Gemini però, almeno durante il lancio, è stato qualcosa di diverso. Prima di tutto non è un’applicazione legata all’intelligenza artificiale ma piuttosto è un motore a cui si possono legare pezzi di software diversi per costruire nuove applicazioni.
Ma non solo. Nel video di presentazione diffuso da Google, Gemini ha dimostrato di avere potenzialità enormi. Potenzialità su cui ora c’è qualche dubbio. Gemini è un’intelligenza artificiale “multimodale”: è capace di gestire nello stesso momento formati diversi che partono dal testo ma arrivano all’audio, al video e alle immagini statiche. In un video di poco più di sei minuti si vede Gemini leggere i disegni, le scritte e gli oggetti che un operatore mette su un tavolo.
Il problema del video modificato
Quel video è stato un bel colpo. C’era soprattutto una cosa che impressionava il pubblico: la fluidità. Gemini era in grado di passare dall’analisi di una fotografia alla lettura di un movimento fluido, era in grado di rispondere a domande e organizzare anche piccoli giochi. Tutto in pochi istanti, esattamente come ci hanno abituato le intelligenze artificiali di film come Iron Man o H.e.r.
Invece qualcosa non era così vero. Nel video pubblicato sul canale YouTube, Google ha aggiunto una dicitura: “Ai fini di questa demo, la latenza è stata ridotta e i risultati sono stati abbreviati per brevità”. Quindi Gemini avrebbe fatto, a questo punto meglio il condizionale, tutto quello che è stato mostrato nel video. Ma a una velocità molto ridotta.
Questa versione è stata confermata anche da una serie di commenti rilasciati a diverse testate statunitensi. Alla Cnbc, un portavoce di Google ha chiarito meglio la posizione dell’azienda: “Il video è una rappresentazione illustrativa delle possibilità di interagire con Gemini, sulla base di suggerimenti multimodali reali e risultati dei test. Non vediamo l’ora di vedere cosa creeranno le persone quando l’accesso a Gemini Pro verrà aperto il 13 dicembre”.