L’IA viene addestrata con migliaia di immagini pedopornografiche: lo rivela uno studio
I dietro le quinte dei sistemi di intelligenza artificiale (IA) sono opachi. Non sappiamo come vengono addestrati, e così sotto strati di dati si riescono anche a nascondere immagini di abussi sessuali su minori. A dimostrarlo è una ricerca dello Stanford Internet Observatory, i ricecatori hanno trovato 3.200 immagini pedopornografiche nel database di LAION, (organizzazione no-profit che crea strumenti open source per l'apprendimento automatico) utilizzata per addestrare i principali generatori di immagini come Stable Diffusion.
I ricercatori della Stanford University hanno lavorato con il Canadian Centre for Child Protection e altre organizzazioni di beneficenza antiabuso per identificare il materiale. Hanno trovato più di 1.000 immagini illegali. "Durante un controllo del LAION‐400M, gli sviluppatori di Imagen hanno trovato un'ampia gamma di contenuti inappropriati tra cui immagini pornografiche, insulti razzisti e stereotipi sociali dannosi”, si legge nella ricerca. In realtà è solo una frazione del set di LAION, che contiene 5,8 miliardi di immagini, eppure secondo i ricercatori sono dati sufficienti per influenzare l'intelligenza artificiale che potrebbe generare output pericolosi.
Come affrontare il problema
Esistono già dei limiti, Bing di Microsoft, Midjourney o Dall-E 3 di OpenAI hanno filtri che impediscono la ripoduzione di nudi, scene sessuali esplicite, e contenuti poedopornografici, eppure diversi utenti sono riusciti ad aggirare i sistemi di sicurezza. Durante un test, per esempio, avevamo dimostrato come in realtà fosse piuttosto scemplice trasformare ChatGPT in un bot razzista. Non solo, i software sono anche in grado di svestire un bambino partendo da una foto. Basti pensare al caso BikiniOff, l'app che genera immagini di nudo artificiale estremamente realistiche. È fondamentale quindi eliminare qualsiasi fonte pericolosa dal set di dati utilizzati dall'IA.
Ripulire le piattaforme però è un lavoro difficile e faticoso, per questo i ricercatori dello Stanford Internet Observatory hanno chiesto misure più drastiche. Tra queste, “eliminare o lavorare con intermediari per pulire il materiale”, e far sparire dal sottobosco di internet tutte le immagini pericolose, violente, e offensive.
Il commento di LAION
Dopo la pubblicazione della ricerca LAION ha dichiarato che avrebbe rimosso temporaneamente i suoi set di dati. Ha poi aggiunto: “Abbiamo una politica di tolleranza zero per i contenuti illegali e lavoriamo con molta cautela cautela, abbiamo eliminato i set di dati di LAION per garantire che siano sicuri prima di ripubblicarli."
LAION ha già sviluppato “filtri rigorosi” per rilevare e rimuovere contenuti illegali prima di rilasciare i suoi set di dati ma ha dichiarato che lavorerà per migliorare il sistema.