Scandalo ChatGPT, scrive anche gli articoli scientifici. Il ricercatore: “Lo usiamo tutti ma non così”
"Lo usiamo tutti. Ma non in questo modo". A parlare è Andrea (il nome è di fantasia), è un ricercatore universitario che ha scelto di rimanere anonimo. "Ho visto qualche giorno fa il primo articolo con le frasi copiate e incollate da ChatGPT, lo hanno pubblicato su Reddit, poi ieri ne è uscito un altro. È una cosa molto grave", ha spiegato a Fanpage.it. Gli articoli sono stati pubblicati da due diversi team di ricercatori, uno cinese e uno israeliano. Cercando abbiamo trovato altri tre casi. A tradire l'intervento delle macchine sono state le formulazioni standard del chatbot. All'interno degli articoli compaiono infatti le frasi: "Non ho accesso ai dati in tempo reale", (il chatbot infatti è aggiornato fino a gennaio 2022), e "Certo. Ecco una possibile introduzione per il tuo argomento."
"Devo dire che anche io uso ChatGPT", ha aggiunto Federico, un altro ricercatore che ci ha chiesto di mantenere l'anonimato. "Gli articoli scientifici sono formati da diverse sezioni, ChatGPT di solito viene usata nelle parti molto generali come le introduzioni, in queste sezioni non vengono aggiunte novità, e quindi va bene, velocizza il lavoro e lo scrive in un linguaggio semplice e scorrevole. A volte anche nelle parti di related work, dove riassumi i lavori che già esistono in letteratura su un determinato argomento. Oppure per riparafrasare il nostro testo scritto. Per il resto non si deve usare." Come spiega Andrea, ChatGPT è un ottimo assistente per le traduzioni, "se non sei un gruppo inglese o americano, quindi la tua prima lingua non è l'inglese, lo utilizzi per correggere gli errori, magari anche solo per rendere il testo in un inglese più fluente."
Nei casi ricondivisi su Reddit però l'intelligenza artificiale è stata utilizzata per scrivere gli articoli. "Nel testo del team israeliano hanno proprio usato il chatbot per scrivere l'ultima frase della discussione, è quella che, insieme alla conclusione, è la parte più importante", sottolinea Andrea. "È molto grave che venga usato per scrivere pezzi di discussione. Perché fosse solo per tradurre è un conto, ma così viene messa in dubbio la validità dei dati presentati. Poi si tratta di un articolo. Purtroppo però fare queste cose mette un’ombra anche sui dati presentati da altri centri più seri, perché poi verrà spontaneo alle persone chiedersi se facciano tutti così."
Gli articoli sono stati pubblicati su riviste ufficiali
Entrambi gli articoli sono comparsi su Elsevier NV, una casa editrice olandese che pubblica testate in ambito medico e scientifico. "È vero che è molto importante, però Elsivier è anche una casa grande che comprende tanti giornali", spiega Andrea. L'articolo cinese è intatti comparso su Surfaces and Interfaces, "si tratta di una sottosezione che però ha che ha un impact factor", un indicatore quantitativo del valore e del prestigio di una rivista all'interno del proprio ambito disciplinare "di 6.2 e considera che dopo il 5 sono riviste considerate molto buone, quindi questo è abbastanza allarmante."
L'articolo isaerliano invece è stato pubblicato su radiology case report, "in questo caso si tratta di una rivista meno affidabile e prestigiosa, e infatti ha un citescore", una misura che riflette il numero medio annuo di citazioni di articoli recenti pubblicati su quella rivista "pari a 1".
Un problema anche durante il peer review
Per pubblicare su Elsevier i ricercatori devono rispettare una serie di regole, tra queste, indicare se sono statati utilizzati strumenti di intelligenza artificiale per la stesura dell'articolo. "Spesso però non viene citata, anche perché molti ricercatori non lo sanno che devono citare l'IA, altri invece parafrasando pensano che non sia necessario", ha spiegato Federico.
Ad aggravare la situazione c'è poi il pressapochismo dei ricercatori che si sono dimenticati di eliminare intere parti di testo copiate e incollate da ChatGPT. Non solo, gli errori non sono stati intercettati nemmeno durante la peer review, la revisione di un articolo fatta da specialisti che hanno competenze analoghe agli autori. È una pratica indispensabile per la ricerca scientifica perché permette di filtrare solo gli articoli che hanno fondamenta scientifiche.
Perché i ricercatori usano l'intelligenza artificiale
Nell'ambiente competitivo del mondo accademico qualsiasi strumento che consenta ai ricercatori di "produrre più pubblicazioni sarà una proposta molto interessante", ha spiegato il ricercatore di innovazione digitale Savvas Papagiannidis presso l'Università di Newcastle a Newcastle upon Tyne, nel Regno Unito alla rivista Nature. In un sondaggio del 2023 condotto da Nature su oltre 1.600 scienziati , quasi il 30% ha affermato di aver utilizzato strumenti di intelligenza artificiale generativa per aiutare a scrivere manoscritti e circa il 15% ha affermato di averli utilizzati per aiutare a scrivere domande di sovvenzione.
Secondo il sondaggio il 55% dei ricercatori crede che uno dei principali vantaggi dell’intelligenza artificiale generativa sia la sua capacità di modificare e tradurre i testi, come ha spiegato Andrea a Fanpage.it. Eppure i chatbot sono ancora imprecisi, non aggiornati, e possono generare informazioni false, che vengono chiamate allucinazioni.