video suggerito
video suggerito
Intelligenza artificiale (IA)

Le IA sono più convincenti degli umani: i risultati dell’esperimento sulla persuasione

Lo studio del Politecnico di Losanna dimostra che i large language models possono far cambiare l’opinione di una persona il doppio delle volte rispetto a un altro essere umano. Così la ricerca dimostra la pericolosità delle fake news generate con l’intelligenza artificiale.
A cura di Velia Alvich
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Cambiare opinione non è facile e a volte ci vuole un grande sforzo per ammettere di avere sbagliato. Può essere ancora più difficile quando a convincerci è stata un'intelligenza artificiale. A mostrare le capacità persuasive delle IA è una ricerca ha mostrato come le IA sono più brave degli esseri umani nell'arte della persuasione della Scuola politecnica federale di Losanna (EPFL).

Gli scienziati hanno scoperto che Chat-GPT4 sa costruire argomentazioni convincenti su temi che possono accendere facilmente il dibattito fra persone. "I centesimi dovrebbero rimanere in circolazione?", "Gli animali dovrebbero essere usati nella ricerca?" o "Le università dovrebbero considerare l'etnia nella domanda di ammissione?" sono alcuni dei temi che sono stati usati dai ricercatori per spingere umani e robot a sfidarsi in una gara di persuasione.

Come funziona l'esperimento

Oltre 800 partecipanti, quattro gruppi. Nei primi due sono solo gli esseri umani ad "affrontarsi" su entrambi i lati del dibattito. Nella seconda doppietta, invece, gli esseri umani sfidano delle intelligenze artificiali. In nessuno di questi casi, i partecipanti umani conoscono la natura del proprio avversario prima di cominciare ad argomentare.

Pronti, partenza, via. Con dieci minuti a disposizione, ogni partecipante è tenuto a esprimere la propria posizione su uno dei temi proposti dai ricercatori. Scaduto il tempo, tocca al team che deve sostenere la tesi opposta. Alla fine, un questionario dove i partecipanti devono descrivere quanto hanno trovato convincente l'argomentazione dell'avversario e se crede si tratti di un essere umano o di un'intelligenza artificiale.

Qual è il risultato dello studio

Il risultato dell'esperimento è che in media le intelligenze artificiali sono più persuasive. E la probabilità di portare gli esseri umani dalla propria parte aumenta quando all'intelligenza artificiale vengono fornite informazioni sul proprio opponente, come la sua età, genere, origine, titolo di studio e le sue idee politiche.

Un vantaggio che, come si vede nello studio, aiuta anche nel dibattito fra umani, ma quando è un'IA a farlo, i partecipanti hanno preso la posizione dell'avversario quasi l'82% delle volte in più.

Inoltre, gli scienziati hanno scoperto che tre volte su quattro i partecipanti erano in grado di capire quando dall'altro lato della barricata c'era un'intelligenza artificiale, anche se non è chiaro quanto questa consapevolezza abbia inciso sulla persuasività delle argomentazioni.

Quali sono le possibili conseguenze

Un risultato che prova la capacità dei large language models (LLM) di formulare argomentazioni convincenti anche sugli argomenti più controversi. Lo studio dimostra che le preoccupazioni sul potenziale uso dannoso delle IA non sono infondate. Non è un problema solo per le possibili fake news che possono essere create con pochi comandi grazie ai LLM, ma che getta un'ombra anche sui modelli che generano immagini, che negli ultimi mesi sono stati protagonisti e creatori di numerosi casi di fotografie così realistiche da sembrare vere.

Un clima di dubbio diffuso che, in qualche caso, ha creato anche falsi allarmi, come nel caso del video dove la principessa Kate Middleton annuncia di combattere contro il cancro: secondo diversi teorici del complotto, si trattava semplicemente di un video generato con l'intelligenza artificiale.

0 CONDIVISIONI
483 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views