Le IA sono più convincenti degli umani: i risultati dell’esperimento sulla persuasione
Cambiare opinione non è facile e a volte ci vuole un grande sforzo per ammettere di avere sbagliato. Può essere ancora più difficile quando a convincerci è stata un'intelligenza artificiale. A mostrare le capacità persuasive delle IA è una ricerca ha mostrato come le IA sono più brave degli esseri umani nell'arte della persuasione della Scuola politecnica federale di Losanna (EPFL).
Gli scienziati hanno scoperto che Chat-GPT4 sa costruire argomentazioni convincenti su temi che possono accendere facilmente il dibattito fra persone. "I centesimi dovrebbero rimanere in circolazione?", "Gli animali dovrebbero essere usati nella ricerca?" o "Le università dovrebbero considerare l'etnia nella domanda di ammissione?" sono alcuni dei temi che sono stati usati dai ricercatori per spingere umani e robot a sfidarsi in una gara di persuasione.
Come funziona l'esperimento
Oltre 800 partecipanti, quattro gruppi. Nei primi due sono solo gli esseri umani ad "affrontarsi" su entrambi i lati del dibattito. Nella seconda doppietta, invece, gli esseri umani sfidano delle intelligenze artificiali. In nessuno di questi casi, i partecipanti umani conoscono la natura del proprio avversario prima di cominciare ad argomentare.
Pronti, partenza, via. Con dieci minuti a disposizione, ogni partecipante è tenuto a esprimere la propria posizione su uno dei temi proposti dai ricercatori. Scaduto il tempo, tocca al team che deve sostenere la tesi opposta. Alla fine, un questionario dove i partecipanti devono descrivere quanto hanno trovato convincente l'argomentazione dell'avversario e se crede si tratti di un essere umano o di un'intelligenza artificiale.
Qual è il risultato dello studio
Il risultato dell'esperimento è che in media le intelligenze artificiali sono più persuasive. E la probabilità di portare gli esseri umani dalla propria parte aumenta quando all'intelligenza artificiale vengono fornite informazioni sul proprio opponente, come la sua età, genere, origine, titolo di studio e le sue idee politiche.
Un vantaggio che, come si vede nello studio, aiuta anche nel dibattito fra umani, ma quando è un'IA a farlo, i partecipanti hanno preso la posizione dell'avversario quasi l'82% delle volte in più.
Inoltre, gli scienziati hanno scoperto che tre volte su quattro i partecipanti erano in grado di capire quando dall'altro lato della barricata c'era un'intelligenza artificiale, anche se non è chiaro quanto questa consapevolezza abbia inciso sulla persuasività delle argomentazioni.
Quali sono le possibili conseguenze
Un risultato che prova la capacità dei large language models (LLM) di formulare argomentazioni convincenti anche sugli argomenti più controversi. Lo studio dimostra che le preoccupazioni sul potenziale uso dannoso delle IA non sono infondate. Non è un problema solo per le possibili fake news che possono essere create con pochi comandi grazie ai LLM, ma che getta un'ombra anche sui modelli che generano immagini, che negli ultimi mesi sono stati protagonisti e creatori di numerosi casi di fotografie così realistiche da sembrare vere.
Un clima di dubbio diffuso che, in qualche caso, ha creato anche falsi allarmi, come nel caso del video dove la principessa Kate Middleton annuncia di combattere contro il cancro: secondo diversi teorici del complotto, si trattava semplicemente di un video generato con l'intelligenza artificiale.