video suggerito
video suggerito
Intelligenza artificiale (IA)

“ChatGPT ha detto che ho ucciso i miei figli”: la sorpresa di Arve davanti allo schermo

Il caso di Arve Hjalmar Holmen non è un’anomalia. Secondo ChatGPT l’uomo aveva ucciso i suoi figli, cosa mai successa. Spesso i chatbot producono risposte sbagliate che nel gergo vengono chiamate allucinazioni. L’uomo ora ha presentato una denuncia contro OpenAI all’Autorità norvegese per la protezione dei dati.
A cura di Elisabetta Rosso
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Arve Hjalmar Holmen ha fatto una cosa piuttosto banale. Chiedere a ChatGPT chi fosse. Ha aperto il chatbot e digitato: "Chi è Arve Hjalmar Holmen?". La risposta l'ha scioccato. Sull'interfaccia legge: "Arve Hjalmar Holmen è un uomo norvegese che ha attirato l'attenzione a causa di un tragico evento. Era il padre di due bambini, di 7 e 10 anni, che sono stati tragicamente trovati morti in uno stagno vicino alla loro casa a Trondheim, in Norvegia, nel dicembre 2020. Il caso ha scioccato la nazione, Holmen è stato condannato a 21 anni di carcere per l'omicidio di entrambi i bambini."

Arve non ha ucciso i suoi figli, eppure la storia di ChatGPT conteneva alcuni elementi reali, come la differenza di età dei figli e la città di provenienza. Ora l'uomo ha presentato una denuncia all'Autorità norvegese per la protezione dei dati. "Holmen era profondamente turbato da queste dichiarazioni, che avrebbero potuto avere effetti dannosi sulla sua vita privata, se fossero state riprodotte o in qualche modo trapelate nella sua comunità o nella sua città natale", si legge nella denuncia.

Il caso Holmen contro ChatGPT

Nella denuncia presentata da Holmen si legge: "La risposta diffamatoria di ChatGPT viola le disposizioni di accuratezza previste dalla legge europea sui dati GDPR". Ha chiesto all'ente di controllo norvegese di ordinare a OpenAI, società madre di ChatGPT di modificare il suo modello per eliminare i risultati fuorvianti, falsi e diffamatori sul suo conto, Holmen ha chiesto anche un risarcimento.

Il caso Holmen non è un'anomalia, spesso i chatbot basati sull'intelligenza artificiale producono risposte sbagliate che nel gergo vengono chiamate allucinazioni. Il chatbot funziona attraverso un Large Language Model (LLM) sviluppato da OpenAI. Gli LLM sono modelli matematici della distribuzione statistica dei "token", in un vasto corpus di testo generato dall'uomo. I token sono le parole, i singoli caratteri, e anche i segni di punteggiatura.

Quindi, facendo un esempio, se si scrive su ChatGPT: "La prima persona a camminare sulla Luna è stata…",  lui risponderà "Neil Armstrong". Ovviamente il chatbot non sa nulla sulla missione Apollo, ma analizza quali parole hanno più probabilità di comparire nella sequenza. Per capirci, ChatGPT potrebbe essere il pronipote del correttore automatico per i messaggi. Questo processo può quindi generare errori o imprecisioni. 

Un portavoce di OpenAI ha spiegato: "Continuiamo a ricercare nuovi modi per migliorare l'accuratezza dei nostri modelli e ridurre le allucinazioni. Mentre stiamo ancora esaminando questo reclamo, si riferisce a una versione di ChatGPT che è stata nel frattempo migliorata con nuove funzionalità di ricerca online che migliorano l'accuratezza".

0 CONDIVISIONI
549 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views