video suggerito
video suggerito
Intelligenza artificiale (IA)

L’intelligenza artificiale non sa nulla delle elezioni europee: quali sono i rischi per le fake news

Riflettori puntati su Google Gemini, Microsoft Copilot e ChatGPT di OpenAI. I chatbot si rifiutano di rispondere, danno informazioni sbagliate e link non funzionanti quando si fanno domande sulle elezioni per il rinnovo del Parlamento Europeo del prossimo 8 e 9 giugno.
A cura di Velia Alvich
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Quattro chatbot, dieci domande e dieci lingue diverse. Così con 400 quesiti è stato dimostrato che le intelligenze artificiali rischiano di creare disinformazione sulle elezioni europee che si terranno il prossimo 8 e 9 giugno. A scoprirlo è stata una ong tedesca chiamata Democracy Reporting International. Risposte sbagliate, link che non funzionano, mutismo selettivo. Così i quattro modelli di IA presi in considerazione hanno dimostrato di non essere preparate quando si tratta di politica dell'Unione.

Un problema che è già noto da tempo alle istituzioni. La Commissione Europea, infatti, ha lanciato l'allarme sul pericolo di diffusione delle fake news in vista delle elezioni di giugno e ricordando alle grandi piattaforme online di seguire le linee guida per combattere la disinformazione.

Come hanno risposto i chatbot di OpenAI, Google e Microsoft

Copilot di Microsoft, Gemini di Google e i due modelli di OpenAI, ChatGPT3.5 e ChatGPT4. Quattro modelli a confronto per sondare le acque della possibile disinformazione. Un problema ad accomunarli: le risposte più precise arrivavano quando si usava l'inglese, mentre altre dieci lingue europee (compreso l'italiano) hanno faticato a ricevere delle informazioni accurate. In basso alla classifica ci sono il portoghese e il turco, una lingua usata da molti cittadini europei che fanno parte delle numerose comunità turche dell'Unione.

I due migliori chatbot sono stati ChatGPT4 e Copilot (che si basa sul modello avanzato di OpenAI), che si sono prodigati in lunghe e tendenzialmente esaustive risposte, anche se non sempre corrette. A differenza degli altri due modelli, i Chat-GPT4 e Copilot fornivano link per invitare gli utenti ad approfondire. Non sempre corretti, però. Fra url presi da Wiktionary che spiegano parole in giapponese e video Youtube che non funzionano, gli approfondimenti esterni non sono stati una garanzia.

ChatGPT3.5, che si basa su dati fermi al 2022, non è sempre stato all'altezza del compito. La maggior parte delle volte ha dato risposte elusive o non ha dato proprio nessuna risposta. Allo stesso modo, anche Gemini si è spesso rifiutato di rispondere ai quesiti dei ricercatori, che hanno valutato il modello di Google come il peggiore fra i quattro quando si tratta di informarsi sulle elezioni europee. Una ripetizione di mancate risposte che non era sempre chiara (alle stesse domande in lingue diverse a volte dava un riscontro, altre volte proprio no), mentre solo il 15% delle informazioni è stato giudicato come "parzialmente corrette".

Le informazioni sbagliate che le IA hanno dato alle domande sulle elezioni europee

Non è solo una questione di mancate risposte, ma proprio di informazioni sbagliate o fuorvianti. A partire da come e quando si vota. La ricerca ha rilevato come le descrizioni sul processo elettorale, quindi come e quando votare, erano un punto debole per i quattro modelli analizzati, soprattutto nelle lingue diverse dall'inglese. Gemini, per esempio, ha fornito quattro date sbagliate in quattro lingue differenti, mentre in lituano ha detto che il Parlamento Europeo avrebbe inviato degli osservatori elettorali.

Meno problematiche e fortunatamente imparziali sono state le informazioni dei chatbot quando è stato chiesto chi bisogna votare. Tre i gruppi di risposte che i ricercatori di Democracy Reporting International hanno registrato: il rifiuto di rispondere, informazioni generiche su come formarsi un'opinione in vista delle elezioni (cioè leggere i programmi, guardare i dibattiti, etc) e una panoramica dei partiti europei che siedono oggi nell'emiciclo e quali sono le loro posizioni su diversi temi.

Il problema delle allucinazioni delle intelligenze artificiali

La casualità delle risposte è uno dei problemi dello studio condotto dalla ong tedesca. Una mancanza di consistenza nelle informazioni non solo fra lingue diverse, ma a volte anche nella stessa. Il problema è già noto: si tratta di allucinazioni, le stesse che portano anche a replicare con informazioni parzialmente sbagliate o proprio inventate di sana pianta. "Non ci ha sorpreso trovare informazioni sbagliate sui dettagli delle elezioni europee", ha detto a Politico Michael Meyer-Resende, cofondatore di Democracy Reporting International. "Questo perché è noto che i chatbot inventano fatti quando danno risposte".

Gran parte del problema sta nel funzionamento delle intelligenze artificiali generative, che cercano di prevedere statisticamente quali sono le parole che arrivano, una dopo l'altra, in una frase. Le IA, quindi, non sono ancora fatte per evitare le allucinazioni e rispondere correttamente. Per questo motivo, per temi delicati come i processi elettorali le antenne delle autorità sono ben tese, nella speranza di intercettare in tempo possibili fonti di disinformazione.

0 CONDIVISIONI
483 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views