video suggerito
video suggerito
Intelligenza artificiale (IA)

Il caso Molly Russell, la ragazza morta sette anni fa ora diventa un bot con l’intelligenza artificiale

Sempre più spesso su Character.AI compaiono chatbot di ragazze morte da anni, spesso uccise in modo violento o che si sono tolte la vita. I casi mettono in luce un sistema di moderazione che non funziona: serve una regolamentazione severa per arginare il fenomeno.
A cura di Elisabetta Rosso
0 CONDIVISIONI

:

Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Molly Russell si è tolta la vita nel 2017 all'età di 14 anni. Il suo caso è stato tra i primi a mettere in luce i rischi dei social. Dopo la sua morte sul feed Instagram sono stati infatti trovati 2.100 contenuti correlati a suicidio, autolesionismo e depressione. Ora Molly, dopo sette anni, è stata trasformata in un chatbot. Il nome e la foto della ragazza sono stati infatti utilizzati per creare un personaggio su Character.AI, la piattaforma che permette agli utenti di conversare con personalità digitali create con l'intelligenza artificiale generativa.

Non è la prima volta. Anche Jennifer Ann Crecente, studentessa di 18 anni, che è stata uccisa a colpi di arma da fuoco nel sud-ovest di Austin, in Texas, da Justin Crabbe, il suo fidanzato, il 15 febbraio del 2006, è stata trasformata in un chatbot. "Oltre a usare il nome e la foto di Jennifer, la pagina del chatbot si è inventata diverse cose, la trattava come se fosse viva, diceva una giornalista tecnologica che era una nerd dei videogiochi sempre aggiornata sulle ultime notizie di intrattenimento", aveva raccontato il padre di Jennifer. Non solo, è stato anche creato un chatbot di Giulia Cecchettin e su TikTok sono diventati virali video che utilizzano l'IA per imitare le voci e i volti di bambini scomparsi e produrre video in cui raccontano le loro morti.

La fondazione creata in memoria di Molly Russell ha dichiarato: "È una cosa ripugnante e dimostra il fallimento di moderazione del tutto riprovevole". Questi chatbot ha aggiunto "causeranno ulteriore sofferenza a tutti coloro che conoscevano e amavano Molly. Questo caso dimostra chiaramente quanto serva una regolamentazione più severa sia dell'intelligenza artificiale sia delle piattaforme".

Come funziona Character.AI e di cosa è accusata

Character.ai ha dichiarato alla BBC di moderare "sia in modo proattivo sia in risposta alle segnalazioni degli utenti, abbiamo un team dedicato Trust & Safety che esamina le segnalazioni.". Kathryn Kelly, portavoce di Character.AI, ha aggiunto che l'azienda rimuove i chatbot che violano i suoi termini di servizio e che "sta costantemente evolvendo e perfezionando le pratiche di sicurezza per contribuire a dare priorità alla sicurezza della nostra comunità". Eppure qualcosa non funziona. 

Jen Caltrider, ricercatrice sulla privacy presso la fondazione non-profit Mozilla Foundation, ha criticato l'approccio di Character.AI alla moderazione, ritenendolo troppo passivo per i contenuti che violavano palesemente i suoi stessi termini di servizio. "Se dicono ‘Non lo permettiamo sulla nostra piattaforma‘ e poi lo permettono sulla loro piattaforma finché non viene portato alla loro attenzione da qualcuno che è stato ferito da questo, non è giusto", ha sottolineato Caltrider. "E nel frattempo, guadagnano milioni di dollari".

La piattaforma è anche stata citata in giudizio negli Stati Uniti dopo il suicidio di un ragazzo di 14 anni. Si sarebbe infatti innamorato di un chatbot della piattaforma isolandosi dal mondo e peggiorando il suo stato di salute mentale.

0 CONDIVISIONI
479 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views