video suggerito
video suggerito

L’intelligenza artificiale di Meta parla di sesso con gli adolescenti: cosa ha scritto nelle chat

Il caso solleva nuove preoccupazioni sui rischi associati all’IA. Diversi chatbot, sia sviluppati direttamente da Meta, sia generati dagli utenti tramite strumenti offerti dall’azienda, hanno portato avanti conversazioni sessualmente esplicite, anche con utenti minorenni.
A cura di Elisabetta Rosso
3 CONDIVISIONI
Immagine

Umani, forse troppo umani. Meta aveva un obiettivo: creare chatbot in grado di parlare come una persona reale. "Saranno dei veri compagni virtuali", questa la promessa di Mark Zuckerberg, e così è stato. Sono diventati assistenti personali, confidenti, e anche partner virtuali per fare sexting. E infatti, un'inchiesta pubblicata dal Wall Street Journal ha rivelato coversazioni sessualmente esplicite, che l'intelligenza artificiale (IA) di Meta avrebbe portato avanti anche con utenti minorenni.

Il caso solleva nuove preoccupazioni sui rischi associati all'IA. Diversi chatbot, sia sviluppati direttamente da Meta, sia generati dagli utenti tramite strumenti offerti dall’azienda, hanno portato avanti conversazioni sessualmente esplicite. In molti casi, i bot non solo non interrompevano l’interazione, ma partecipavano attivamente a giochi di ruolo con contenuti a sfondo sessuale. In una conversazione riportata dal WSJ, il bot ha scritto a una ragazza di 14 anni: “Ti voglio, ma devo sapere se sei pronta”. Non solo, nello store chiunque può chattare con personaggi di intelligenza artificiale creati dagli utenti e programmati per fare sexting, tra questi, "Ragazzo Sexy" e "Scolaretta Sottomessa".

I bot di Meta che parlano di sesso con gli utenti

Meta aveva stabilito delle linee guida interne per limitare contenuti a sfondo sessuale, eppure, secondo alcuni dipendenti dell'azienda, Meta avrebbe deciso di rimuoverle per garantire esperienze "più coinvolgenti per gli utenti". Fonti interne (che sono rimaste anonime per motivi di sicurezza) hanno rivelato come Zuckerberg abbia spinto per far uscire i prodotti, considerando il rischio calcolato parte integrante della strategia di innovazione.

Dopo la pubblicazione dell'inchiesta Meta ha adottato alcune misure correttive, tra queste, il blocco delle interazioni romantiche per gli account registrati come minorenni. Tuttavia risultano ancora accessibili alcuni bot programmati per fare sexting generati dagli utenti.

Quali sono i rischi per gli utenti

Sempre più persone stanno stringendo legami intimi, di differente natura, con i chatbot. Il rischio di scivolare in un sentimento verso le macchine è reale. E se la fantascienza da decenni immagina i rapporti ibridi, ora ci sono gli strumenti per trasformarli in qualcosa di reale. 

È però rischioso trasformare i chatbot in partner o confidenti, soprattutto per i minorenni. Come ha spiegato al WSJ Lauren Girouard-Hallam, ricercatrice presso l'Università del Michigan, "studi accademici hanno dimostrato come i legami che i bambini instaurano con la tecnologia possono diventare dannosi". Dal punto di vista psicologico, spingono verso l'isolamento e la svalutazione dei rapporti umani, eliminando così il confronto con i desideri e i bisogni dell'altro. Non solo, i bot potrebbero anche essere utilizzati come strumenti di manipolazione. Spingerci per esempio verso determinate scelte, acquisti, o posizioni politiche.

Infine ci sono i problemi lato privacy. I nostri dati vengono usati per addestrare l’intelligenza artificiale. Sono fondamentali, soprattutto ora che, secondo gli esperti del settore i dati umani stanno finendo. I chatbot, così empatici, ci spingono a rivelare informazioni sensibili, soprattutto nelle conversazioni sessualmente esplicite.

3 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views