Le scuole di New York vietano ChatGpt: l’intelligenza artificiale scrive i saggi meglio degli studenti
Tutto inizia con un’Intelligenza Artificiale (IA) troppo umana, ChatGpt. Scrive testi, saggi, risponde alle domande e genera caos. Come succede ogni volta che viene sfornata un’innovazione che funziona bene. In mezzo allo stupore generale ci sono anche gli effetti collaterali, tra questi un’epidemia di plagi dentro le scuole.
Per questo il dipartimento dell’istruzione di New York ha vietato il chatbot su tutti i dispositivi e le reti nelle scuole pubbliche della città. E potrebbe non essere l’unica. Il grande timore infatti è non riuscire più a riconoscere se un testo è stato composto da uno studente o da un’IA. E quindi dare il via libera per copiare ogni prova scritta.
Il veto di New York
La portavoce dell’iniziativa, Jenna Lyle, ha spiegato a che la decisione deriva da "preoccupazioni per gli impatti negativi sull'apprendimento degli studenti e timori per quanto riguarda la sicurezza e l'accuratezza dei contenuti". Così le scuole di New York tagliano la testa al toro e decidono di rispondere al problema dei plagi bloccando ChatGpt. "Sebbene lo strumento possa essere in grado di fornire risposte rapide e semplici alle domande, non sviluppa capacità di pensiero critico e di risoluzione dei problemi, che sono essenziali per il successo accademico e per tutta la vita", ha affermato Lyle. “Tuttavia, le singole scuole possono ancora richiedere l'accesso a ChatGpt per scopi di istruzione relativi all'intelligenza artificiale e alla tecnologia".
Come funziona l'IA che scrive
ChatGpt è un software brillante creato da OpenAI. Sicuramente è l’intelligenza artificiale più performante mai diffusa al pubblico. In grado di scrivere saggi, dialogare, chattare su Tinder al posto degli utenti, contestare premesse errate e rifiutare richieste inappropriate. Gli utenti possono anche chiedere riformulazioni, riassunti ed espansioni dei testi prodotti.
Proprio per questo l'Ia è diventata lo strumento perfetto per copiare a scuola o all’università. È durata una manciata di giorni, poi gli insegnanti sono riusciti a trovare le tracce del chatbot nei testi scritti degli studenti, denunciando anche sui social il trucco di ChatGpt.
La risposta di ChatGpt
OpenAI ha provato a rassicurare gli insegnanti. La società ha dichiarato al Washington Post: “Non vogliamo che ChatGPT venga utilizzato per scopi fuorvianti nelle scuole o altrove, quindi stiamo già sviluppando mitigazioni per aiutare chiunque a identificare il testo generato da quel sistema. Non vediamo l'ora di lavorare con gli educatori su soluzioni utili e altri modi per aiutare insegnanti e studenti a beneficiare dell'intelligenza artificiale".
Il mese scorso, il CEO di OpenAI, Sam Altman, ha twittato “ChatGPT è incredibilmente limitato, ma abbastanza bravo in alcune cose da creare un'impressione fuorviante di grandezza". E ancora: “È un errore fare affidamento su di esso per qualcosa di importante in questo momento. È un'anteprima del progresso; abbiamo molto lavoro da fare su robustezza e veridicità”, ha poi aggiunto: “Divertimento, ispirazione creativa; grande! Affidamento per query fattuali; non è una buona idea.”
Una soluzione già disponibile
Edward Tian, informatico della Princeton University, ha creato un'app per rilevare se il testo è stato scritto dal chatbot. Si chiama GPTZero, “capace di decifrare il modo rapido e efficente se è stato un umano o l’Ia a scrivere un testo”, spiega Tian. "C'è così tanto clamore su ChatGpt in giro. Questo e quello sono stati scritti da AI? Noi umani meritiamo di saperlo!", ha scritto Tian in un tweet per presentare GPTZero.
Più di 30.000 persone hanno provato l’app entro una settimana dal suo lancio. Funziona così: per determinare l’originalità di un testo si basa su diversi parametri, per esempio misura la complessità, più è alta, più è probabile che appartenga a un umano, o la variazione dei periodi, un’intelligenza artificiale tenderà a scrivere con uno stile uniforme.
La corsa verso nuovi antidoti
A dicembre, Scott Aaronson, ricercatore presso OpenAI, ha rivelato che la società sta lavorando a una soluzione per "filigranare" il testo generato da GPT con un "segnale segreto impercettibile" che permette di identificare la fonte. Non solo, la community AI open source Hugging Face ha messo a punto uno strumento per rilevare se il testo è stato creato da GPT-2, la versione precedente del modello AI.