video suggerito
video suggerito
Intelligenza artificiale (IA)

Cos’è il veleno dell’intelligenza artificiale: fa impazzire le macchine per proteggere i dati

Si chiama Nightshade, è stata realizzata dai ricercatori dell’Università di Chicago, e consente agli artisti di aggiungere modifiche invisibili sulle loro opere prima di caricarle online.
A cura di Elisabetta Rosso
54 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Greg Rutkowski, concept artist celebre per le sue opere in stile fantasy, a gennaio 2023 scopre che sul web stanno circolando illustrazioni identiche alle sue. Peccato che non le abbia mai disegnate. L'artista infatti è stato menzionato centinaia di migliaia di volte nei prompt su Midjourney. Secondo il sito Lexica, che tiene traccia di oltre 10 milioni di immagini e suggerimenti generati da Stable Diffusion, il nome di Rutkowski è stato utilizzato circa 93.000 volte. Le macchine ingeriscono testi, immagini, qualsiasi cosa presente sul web, e poi sputano fuori i risultati, che spesso assomigliano troppo ai dati con cui sono state addestrate. L'intelligenza artificiale ha aperto nuove questioni e battaglie legali sul diritto d'autore. Ora, però c'è un nuovo strumento.

Si chiama Nightshade, è stata realizzata dai ricercatori dell'Università di Chicago, e consente agli artisti di aggiungere modifiche invisibili sulle loro opere prima di caricarle online in modo che, se inserite in un set di formazione IA, causino la rottura del modello. L'idea è quella di "avvelenare" i dati di addestramento, se inseriti all'interno dei modelli di intelligenza artificiale come DALL-E, Midjourney e Stable Diffusion, creano confusione e output sbagliati. Per esempio i gatti diventano cani, le auto si trasformano in mucche, i deserti in piscine olimpioniche. Il suo lancio ha riscosso un successo inaspettato: 250.000 download in soli cinque giorni.

Come funziona Nightshade

L'obiettivo è ostacolare le aziende di intelligenza artificiale che utilizzano il lavoro degli artisti per addestrare i propri modelli senza il permesso. Ben Zhao, professore all'Università di Chicago, che ha guidato il team che ha creato Nightshade, ha spiegato che vogliono contribuire a spostare l'equilibrio a favore degli artisti, "creando un potente deterrente contro la mancanza di rispetto dei diritti d'autore".

Il team di Zhao aveva già sviluppato Glaze, uno strumento per permettere agli artisti di “mascherare” il proprio stile ed evitare che venga utilizzato dalle società di intelligenza artificiale per addestrare le loro macchine. Come Nightshade, modifica i pixel delle immagini, i cambiamenti sono invisibili all'occhio umano e riescono a ingannare i modelli di apprendimento automatico. Il team ha deciso che Nightshade open source, in questo modo gli artisti potranno modificare o creare versioni ad hoc, "in questo modo lo strumento diventerà più potente e efficace."

Cosa succede quando si avvelenano le IA

Come dicevano, i campioni di dati avvelenati possono manipolare i modelli IA. Sono molto difficili da rimuovere, le aziende dovrebbero infatti trovare ed eliminare scrupolosamente ogni campione corrotto. Non solo, come hanno spiegato i ricercatori, Nightshade infetta non solo una parola ma anche i termini correlati. Per esempio se il modello rilevasse un'immagine avvelenata per il prompt "arte fantasy", anche i comandi "drago" e "un castello nel Signore degli Anelli " verrebbero manipolati e trasformati in qualcos'altro. 

Lo strumento quindi potrebbe anche essere utilizzato per danneggiare gratuitamente i sistemi, il team però ha sottolineato che "gli aggressori avrebbero bisogno di migliaia di campioni avvelenati per infliggere danni reali a modelli più grandi e potenti, poiché sono addestrati su miliardi di campioni di dati."

54 CONDIVISIONI
483 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views