video suggerito
video suggerito
Intelligenza artificiale (IA)

Negli Stati Uniti parte un’indagine su ChatGPT: “A rischio i dati degli utenti”

È la prima grande minaccia normativa portata avanti negli Stati Uniti per OpenAI. Ora l’azienda dovrà rispondere a una lista di domande per spiegare come usa e conserva i dati degli utenti.
A cura di Elisabetta Rosso
31 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Gli Stati Uniti sono rimasti in silenzio, nonostante il grido d'aiuto di Sam Altman, che aveva confessato di fronte a una giuria di senatori tutte le sue paure, nonostante la lettera firmata dai Ceo delle Big tech. Ma ora l'intelligenza artificiale deve fare i conti con la Federal Trade Commission. L'agenzia governativa statunitense per le tutela dei consumatori sta indagando su OpenAI. L'azienda madre di ChatGPT potrebbe aver violato le leggi sulla protezione dei consumatori. “Metterebbe a rischio i dati personali e la reputazione dei singoli individui”: si legge nel documento di 20 pagine riportato dal Whashington Post. Non è la prima volta per FTC. "Il poliziotto della Silicon Valley" come l'ha definita il Post, ha già portato avanti lunghe battaglie contro altri colossi tech come Meta, Amazon e Twitter. E infatti Lina Khan, la presidente della FTC, in un editoriale del New York Times ha spiegato: "Sebbene questi strumenti siano nuovi, non sono esenti dalle regole esistenti e la FTC applicherà vigorosamente le leggi anche in questo nuovo mercato". Non è la prima volta nemmeno per ChatGPT, a marzo è stato bloccato per un mese in Italia e il Comitato europeo per la Protezione dei Dati (Edpb) ad aprile aveva lanciato una task force per regolamentare l'intelligenza artificiale di OpenAi.

Ora la FTC ha invitato l'azienda a fornire spiegazioni dettagliate sulle "informazioni false, fuorvianti, denigratorie o dannose" rilasciate dal chatbot, sui possibili "danni ai consumatori" e sui dati raccolti dal ChatGPT. Ha spiegato che sta anche indagando per capire se la società è coinvolta in pratiche sleali o ingannevoli. L'indagine della FTC rappresenta la prima grande minaccia normativa portata avanti negli Stati Uniti per OpenAI.

Lo stop del Garante in Italia

Il Garante della Privacy aveva deciso già a marzo di bloccare ChatGPT in Italia per un mese. Secondo le dichiarazioni del Garante, il software raccoglieva dati personali senza nessuna giustificazione e non aveva nessun sistema per verificare l’età degli utenti. Come aveva spiegato Guido Scorza, avvocato e componente del Garante per la Protezione dei dati personali, a Fanpage.it: "Le conversazioni vengono memorizzate. Da quello che abbiamo visto il software tiene una cronologia di tutti gli scambi con gli utenti. Su questo non c’è nessuna informativa. Eppure qui gli utenti possono comunicare anche molte più informazioni di quello che fanno in altre piattaforme. Ad esempio possono condividere dei dati sanitari, magari chiedendo informazioni sul loro stato di salute. Per capire tutto questo abbiamo avviato un’istruttoria."

I risultati del blocco europeo

Anche altri Paesi hanno seguito la linea italiana. E infatti il 13 aprile il Comitato europeo per la Protezione dei Dati (Edpb) ha lanciato una task force con tutte le autorità per la privacy degli Stati membri per lavorare su ChatGPT. Davanti agli stop dell'Italia e alle prime mosse dell'Unione europea l'azienda ha iniziato a modificare le sue impostazioni. Una delle ultime modalità annunciate da ChatGPT è quella in incognito, un’opzione che permette di parlare con il chatbot dell’intelligenza artificiale senza tenere nessuna cronologia. Funziona in modo simile alla navigazione in incognito dei motori di ricerca.

31 CONDIVISIONI
482 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views