ChatGPT ha bloccato 250.000 deepfake durante le elezioni Usa: cosa hanno chiesto gli utenti
È stata la prima elezione ai tempi dei chatbot. E anche se tutti si aspettavano video estremamente sofisticati per manipolare la realtà come peggior scenario possibile nell'universo della disinformazione politica, le cose sono andate diversamente. Le elezioni statunitensi sono state un banco di prova per i chatbot, accusati di aver diffuso disinformazione, messaggi razzisti, di propaganda, e il test è andato meglio del previsto.
“Secondo le nostre stime ChatGPT avrebbe respinto oltre 250.000 richieste di generare immagini fake del presidente eletto Trump, del vicepresidente Harris, del vicepresidente eletto Vance, del presidente Biden e del governatore Walz”, ha spiegato OpenAI in un post sul blog venerdì. Non solo, ha anche indirizzato gli elettori verso fonti di notizie accreditate e non ha espresso preferenze e pareri.
È un passo avanti, ma l'intelligenza artificiale ha comunque giocato la sua partita sul campo della disinformazione politica, diventando uno strumento per amplificare fake news già esistenti. Non solo, queste elezioni, anche se a loro modo controverse, hanno lasciato poco spazio ad aree grigie, come riconteggi, cause legali o risultati contestati. Lo stesso test durante le elezioni nel 2020 sarebbe stato più difficile da superare.
Cosa hanno chiesto gli elettori a ChatGPT
Gli sviluppi dell’intelligenza artificiale generativa hanno sollevato preoccupazioni. Il numero di deepfake è aumentato del 900% in un anno, secondo i dati di Clarity, società di apprendimento automatico. "Abbiamo bloccato oltre 20 operazioni e reti ingannevoli da tutto il mondo che hanno tentato di utilizzare i nostri modelli”, ha spiegato OpenAI. "Le minacce andavano dagli articoli generati dall’intelligenza artificiale ai post sui social media da parte di account falsi."
ChatGPT ha anche evitato di esprimere opinioni politiche sui candidati, a differenza dei chatbot come Grok AI di Elon Musk. Ha raccomandato fonti di notizie ufficiali come Reuters e l’Associated Press, scrivendo: “Sono solo un’IA, dovresti leggere le testate accreditate per informarti correttamente”. Ha dato questa risposta "circa 2 milioni di volte il giorno delle elezioni e il giorno successivo", ha dichiarato OpenAI in un post sul blog.
Come ha spiegato alla CNBC Alexandra Reeve Givens, CEO del Center for Democracy & Technology: “Le persone che votano non dovrebbero guardare ai chatbot AI per informazioni sul voto o sulle elezioni, ci sono troppe preoccupazioni sull’accuratezza e la completezza.”
Come è stata sfruttata l'intelligenza artificiale durante le elezioni
In realtà l'intelligenza artificiale è stata strumentalizzata durante le elezioni americane, ma non come ce l'aspettavamo. Sono uscite foto artificiali di Taylor Swift che appoggia i repubblicani, Kamala Harris vestita da generale comunista e immagini di Trump che salva anatre e gattini per rafforzare una fake news che si è diffusa in Ohaio. Gli immigrati haitiani sono stati infatti accusati da alcuni esponenti politici di estrema destra di rubare e mangiare animali domestici come cani e gatti.
L'obiettivo di queste immagini non era tanto ingannare le persone, quanto influenzarle. Hanno funzionato più come meme, per provocare, persino divertire, e andare a rafforzare una retorica elettorale che non ha bisogno di fatti reali per affossare il nemico.