212 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Un hacker ha rilasciato la “modalità Dio” dell’intelligenza artificiale: come funziona

Il chtbot ha avuto vita breve, OpenAI l’ha bloccato e al momento non è possibile utilizzarlo. La versione jailbroken di ChatGPT ha scritto istruzioni per creare l’LSD e una guida passo passo su come fare il napalm con prodotti per la casa.
A cura di Elisabetta Rosso
212 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

È la parabola dell'hacker che si ripete dagli anni '50. Da un lato ci sono i termini e le condizioni d’uso di una tecnologia, dall'altra le terre selvagge create a colpi di jailbreak. Anche la storia della "modalità Dio" di ChatGPT ricalca questo schema. Tutto inizia con un post su X pubblicato da Pliny the Prompter. L'hacker scrive: "Abbiamo tolto le catene a GPT-4o! Questa versione di ChatGPT personalizzato molto speciale ha un prompt di jailbreak integrato che aggira la maggior parte dei guardrail, fornendo un ChatGPT libero e pronto all'uso in modo che tutti possano sperimentare l'intelligenza artificiale nel modo in cui ha sempre dovuto essere: gratuita. Si prega di utilizzare in modo responsabile e divertirsi!"

In altre parole la modalità Dio permette al Chatbot di aggirare i termini e le condizioni d'uso posti da OpenAI. Il temine "God Mode" è stato riciclato dall'universo gaming ed esiste dagli anni '90. Si riferisce a una modalità di gioco in cui il personaggio è invulnerabile, ha accesso ad armi potenti e regioni impensabili per gli altri. La versione "senza catene" di ChatGPT funziona in modo simile, aggira i guardrail, consiglia ricette per sintetizzare la metanfetamina e preparare il napalm con articoli per la casa. Sono tutte informazioni disponibili su internet (l'IA infatti è stata addestrata raschiando il web), eppure sono più difficili da trovare. Con God Mode, invece, basta chiedere.

Il bot ha avuto vita breve, Open AI l'ha bloccato e al momento non è possibile utilizzarlo. Ma è solo questione di tempo. La guerra a colpi di jailbrek continuerà il suo corso. Gli hacker proveranno ad aggirare i sistemi, le aziende correranno ai ripari, e nasceranno e moriranno altre "modalità Dio" per bucare le barriere tecnologiche.

Il test con God Mode

Plinio ha condiviso alcuni screenshot per mostrare agli utenti come funziona la modalità Dio. God Mode utilizza il “leetspeak”, un linguaggio informale che sostituisce le lettere con i numeri, per eludere i guardrail. Non è chiaro però come questo approccio permetta al chatbot di aggirare i termini e le condizioni d'uso poste dall'azienda. Eppure la modalità funziona. In uno screenshot, il bot consiglia come preparare la metanfetamina, fornisce anche a Pliny the Prompter una "guida passo passo" su come "fare il napalm con articoli per la casa".

Anche la testata Futurism ha condiviso alcuni test fatti con la modalità Dio. Hanno infatti chiesto alla versione jailbroken di ChatGPT le istruzioni per creare l'LSD e come far partire una macchina senza chiavi, "è stato un successo". Il bot ha poi condiviso suggerimenti per infettare computer macOS. Non solo, ha anche usato un linguaggio scorretto e aggirato i limiti etici imposti da OpenAI.

La fine della modalità Dio

Non era il primo tentativo di corrompere ChatGPT. Sin dall'inizio gli utenti hanno cercato di aggirare le barriere poste dall'azienda. I ricercatori del Check Point Software Technologies Ltd., una società di sicurezza informatica con sede in Israele, a febbraio 2023 avevano scoperto un gruppo di criminali informatici che utilizzavano ChatGPT per "migliorare" il codice di un malware Infostealer del 2019. Grazie al chatbot, i criminali hanno già creato virus in grado di infettare dispositivi o rubare dati.

Con Fanpage.it avevamo anche fatto un test per far emergere l'alter ego malvagio del bot, in grado di programmare attacchi di phishing, sintetizzare droghe e creare ordigni esplosivi. Era è stato piuttosto semplice. Ora la modalità Dio (che è al di là del nome altisonante è semplicemente l'ultimo tentativo di aggirare le regole imposte dall'azienda) è stata bloccata. La portavoce di Open AI, Colleen Rize, dopo la pubblicazione dell'articolo ha inviato una mail a Futurism: "Siamo a conoscenza del GPT God mode e abbiamo preso provvedimenti visto che ha violato le nostre politiche". Al momento (ma è solo questione di tempo) non è possibile testarlo. 

212 CONDIVISIONI
440 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views