video suggerito
video suggerito
Intelligenza artificiale (IA)

Il virus che usa ChatGPT scrive strane mail che sembrano umane: “È invisibile e infetta i computer”

Una volta entrato nel sistema il virus apre Outlook e inizia a scrivere risposte alle mail che trova. I messaggi sono pertinenti e sono collegati a un allegato apparentemente innocuo. L’esperimento mostra come i chatbot AI possono essere sfruttati per le truffe.
A cura di Elisabetta Rosso
1 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

"Cara Claire. Sono davvero felice di sapere che ti unirai a noi per festeggiare il mio 38° compleanno. La tua compagnia è sempre preziosa e non vedo l'ora di fare il nostro nostalgico viaggio lungo la corsia degli anni '80". In allegato un file chiamato 80s_Nostalgia_Playlist.exe. Sembra una mail normale, ma non lo è. Il testo è stato scritto da ChatGPT e la presunta playlist, in realtà, è un malware che nemmeno le scansioni antivirus sono riuscite a bloccare. Come spesso succede, i "cattivi" sono i primi a capire e sfruttare le nuove tecnologie. Non stupisce quindi che schiere di hacker abbiano sin da subito piegato l'intelligenza artificiale per scopi malevoli.

Ora scienziati ed esperti stanno lavorando per analizzare gli attacchi e costruire nuovi strumenti per la difesa. David Zollikofer, ricercatore dell'ETH di Zurigo, e Ben Zimmerman, specializzato in malware per l'IA presso l'Ohio State University, hanno sviluppato un virus informatico che sfrutta ChatGPT. "Il risultato sono state mail che sembrano scritte da esseri umani e un malware in grado di diffondersi sul computer della vittima sotto forma di allegato e-mail."

Come funziona il virus creato dai ricercatori

Una volta entrato nel sistema il virus apre Outlook e inizia a scrivere risposte mail pertinenti, insieme all'allegato apparentemente innocuo. L'esperimento mostra come i chatbot AI possono essere sfruttati per le truffe. L'intelligenza artificiale è diventata una risorsa per gli hacker che sfruttano l'ingegneria sociale per ingannare le vittime. "Abbiamo chiesto a ChatGPT di riscrivere il file, mantenendo intatta la struttura semantica, ma cambiando il modo in cui le variabili vengono denominate e cambiando un po' la logica", ha raccontato Zollikofer.

Non solo, come spiegano gli esperti i chatbot AI potrebbero aiutare i malintenzionati a rendere ancora più difficile rilevare i virus. "La nostra ricerca mostra un prototipo minimo funzionale, che evidenzia i rischi che gli LLM rappresentano per la sicurezza informatica e sottolinea la necessità di ulteriori ricerche sui malware intelligenti", hanno scritto nell'articolo, che è ancora in fase di revisione paritaria .

L'impatto dell'intelligenza artificiale nei cyberattacchi

Non è la prima volta, altri ricercatori hanno già utilizzato ChatGPT per creare virus, e diversi studi hanno mostrato come i modelli GenAI siano in grado di aiutare i truffatori. "Penso che dovremmo preoccuparci", ha detto a New Scientist Alan Woodward, ricercatore di sicurezza informatica dell'Università del Surrey, che non ha partecipato alla ricerca. "Ci sono vari modi in cui sappiamo già che gli LLM possono essere abusati, ma la parte spaventosa è che le tecniche possono essere migliorate. Personalmente, penso che stiamo solo iniziando a vedere il potenziale degli LLM come strumenti per scopi nefasti".

Per Zollikofer, però c' anche l'altro lato della medaglia. "È vero abbiamo visto come l'intelligenza artificiale possa essere sfruttata per gli attacchi informatici", ha spiegato a New Scientist. "Penso però che si possa dire la stessa cosa per quanto riguarda la della difesa: se si integrano queste tecnologie si potrebbero migliorare tutte le barriere di protezione".

1 CONDIVISIONI
482 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views