Tanto inclusiva da diventare fake: ora sappiamo cosa è successo all’intelligenza artificiale di Google
Lo avevano intuito in molti, ora lo hanno confermato gli stessi vertici di Google: dietro i "falsi storici" generati da Gemini, l'intelligenza artificiale del colosso di Mountain View, che hanno costretto l'azienda a sospendere la funzione di creare immagini, c'è stato un eccesso di inclusività. "Abbiamo messo offline la funzione mentre risolviamo il problema. Speriamo di poterla rimettere online a breve, nelle prossime due settimane", ha dichiarato il CEO di Google DeepMind Demis Hassabis durante una conferenza lunedì 26 febbraio, come riportato da Reuters, durante la quale Hassabis ha ammesso che Gemini non "funzionava come volevamo".
La polemica era scoppiata a metà febbraio quando diversi utenti hanno iniziato a postare su X (un tempo Twitter) immagini accusate di negare qualsiasi principio di realismo storico, in quanto rappresentano come persone nere figure che storicamente non potevano che essere bianche. Le accuse, che hanno costretto Google a mettere in pausa la funzione di generare immagini lanciata solo tre settimane fa, provenivano soprattutto da ambienti di destra, secondo i quali Google avrebbe voluto in quel modo negare "la storia della civiltà bianca".
Le accuse a Gemini
Tra gli esempi segnalati dagli utenti c'erano immagini di soldati nazisti, donne avvocate degli anni '20 e perfino un'immagine dei Padri Fondatori, tutte accumunate dal fatto di presentare persone nere in ruoli che per ragioni storiche non potevano che essere rivestiti che da bianchi. Oltre all'errore storico, per alcuni queste immagini sono risultate offensive perché irrispettose della storia del razzismo e della disparità di genere. Altri hanno perfino avanzato ipotesi complottiste, secondo cui l'IA di Google stava intenzionalmente evitando di raffigurare persone bianche.
Come molti avevano sospettato, in realtà questi errori sono stati la conseguenza del tentativo di Google di addestrare il proprio chatbot a creare immagini inclusive, che fossero in grado di superare un limite costitutivo dell'IA generativa, ovvero quello di ricalcare i pregiudizi di cui è disseminato il web. Qualcosa però è andato evidentemente storto e ora lo ha ammesso anche Google.
Come Google ha spiegato gli errori
In un post ufficiale, Prabhakar Raghavan, vicepresidente senior di Google, ha spiegato le cause di quegli errori e la decisione di "mettere in pausa la generazione di persone di immagini tramite Gemini". "È chiaro che questa funzione ha mancato il bersaglio. Alcune delle immagini generate sono imprecise o addirittura offensive. Siamo grati per il feedback degli utenti e ci dispiace che la funzione non abbia funzionato bene", ha scritto Raghavan, anticipando che a breve sarà di nuovo disponibile, ma in una versione migliorata.
Le parole di Raghavan confermano poi le cause degli errori generati da Gemini nella creazione di immagini di persone: le intenzioni di chi ha progettato la funzione di creare immagini erano di evitare che il chatbot cadesse "in alcune delle trappole che abbiamo visto in passato con la tecnologia di generazione di immagini, come la creazione di immagini violente o sessualmente esplicite o raffigurazioni di persone reali". Gemini avrebbe dovuto quindi essere "inclusiva" ed essere idonea a rispondere alle richieste di creare immagini di persone "non meglio caratterizzate" senza prediligere "un solo tipo di etnia (o qualsiasi altra caratteristica)".
Cosa è andato storto
"Tuttavia, se chiedi a Gemini immagini di un tipo specifico di persona – come "un insegnante nero in una classe" o "un veterinario bianco con un cane" – o persone in particolari contesti culturali o storici, dovresti assolutamente ottenere una risposta che rifletta accuratamente ciò che chiedi", prosegue Raghavan. Invece così non è stato. Gli errori sono stati quindi la conseguenza del tentativo di addestrare Gemini a mostrare sempre una gamma eterogenea di soggetti, che ha però preso una deviazione imprevista.
Quanto accaduto in queste prime tre settimane di vita del generatore di immagini di Gemini conferma un rischio che dovremmo, almeno per questi primi tempi, mettere in conto quando lavoriamo con gli LLM, i modelli linguistici di grandi dimensioni. Raghavan le definisce le "allucinazioni" dell'IA e ammette che Gemini, "essendo uno strumento di creatività e produttività, potrebbe non essere sempre affidabile, specialmente quando si tratta di generare immagini o testo su eventi attuali, notizie in evoluzione o argomenti caldi".