559 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

“Avevo bisogno di parlare con lui”: sempre più persone chiedono all’IA di resuscitare i propri cari

Con i progressi dell’intelligenza artificiale e della tecnologia vocale ora è possibile capitalizzare anche la morte. Al momento non c’è nessun vincolo legale eppure secondo gli esperti di etica i “deadbot” potrebbero causare danni psicologici e “perseguitare” gli utenti.
A cura di Elisabetta Rosso
559 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

"Sapevo che era un sistema di intelligenza artificiale ma, una volta che ho iniziato a chiacchierare, me ne sono dimenticata. Sembrava Camerum". Chisti Angel ha 47 anni, vive a New York e ha perso il suo partner. Ha deciso così di inizare a parlare con la versione chatbot di Camerum. Un'intelligenza artificiale (IA) addestrata con foto, audio e video del defunto. "È sembrato così reale".

Christi non è l'unica, sempre più persone si stanno rivolgendo ai chatbot per superare un lutto. La possibilità di comunicare con i defunti è stato per secoli il sogno proibito tra tavola ouija e sedute spiritiche, con i progressi dell'intelligenza artificiale e della tecnologia vocale, ora è possibile capitalizzare anche la morte. Al momento non c'è nessun vincolo legale eppure secondo gli esperti di etica i "deadbot" potrebbero causare danni psicologici e "perseguitare" gli utenti.

L'esperienza di Angel è stata raccontata nel documentario, Eternal You. Hans Block e Moritz Riesewieck, i direttori, hanno spiegato di voler mostrare quali sono i problemi della resurrezione digitale. “Queste persone vulnerabili, molto presto dimenticano di parlare con un sistema di apprendimento automatico e questo è un grosso problema nella regolazione di questo tipo di sistemi”, ha spiegato Block.

Come funziona Project December

La piattaforma utilizzata da Angel si chiama Project December ed è gestita dal gamer Jason Rohrer. "Tutto è iniziato come un progetto artistico per creare personaggi chatbot", ha spiegato Rohrer, è stato poi adottato dai primi utenti per ricreare partner, amici e parenti deceduti. La pubblicità sul sito promuove ora Project December con la rubrica che “simula i morti”.

I clienti per realizzare le versioni digitali dei cari defunti devono compilare schede sulla persona deceduta, tra questi nickname, tratti caratteriali e la causa della morte, che vengono inseriti in un modello di intelligenza artificiale.

Cosa sono le versonas

Il documentario mostra anche altre forme di "grieftech", così viene chiamata la tecnologia che cerca di capitalizzare la morte. Oltre ai chatbot ci sono anche le versonas, un profilo postumo di se stessi che permette a chiunque di continuare a vivere sottoforma di chatbot. Basta accedere sulla piattaforma YOV, “You, Only Virtual”. Come per Project December anche su YOV si possono creare copie delle persone defunte partendo dai dati.

Justin Harrison, fondatore di YOV, ha creato un verso di sua madre, Melodi, prima che morisse. Non è preoccupato delle conseguenze che potrebbero innescare i morti digitali, secondo Harrison la piattaforma sta semplicemente incontrando un bisogno umano senza tempo.

In Cina le pompe funebri stanno già utilizzando foto, video, registrazioni vocali dei defunti per creare versonas che durante il funerale recitino qualche frase di commiato.

Parlare con i morti è una buona idea?

"Gli esseri umani sono stati notoriamente coerenti e universali nel loro desiderio di rimanere in contatto con i propri cari perduti. Lo stiamo facendo solo con gli strumenti con cui il 2024 ci permette di farlo”, ha spiegato al Guardian Sherry Turkle, professoressa presso il Massachusetts Institute of Technology negli Stati Uniti, l'IA però potrebbe rendere impossibile “lasciare andare i nostri cari che non ci sono più".

I ricercatori dell’Università di Cambridge stanno infatti chiedendo una nuova regolamentazione. Secondo Katarzyna Nowaczyk-Basiska, co-autrice di un recente studio presso il Leverhulme Centre for the Future of Intelligence (LCFI) dell’Università di Cambridge, bisogna affrontare sia i possibili danni psicologici, per esempio sui soggetti più vulnerabili come i bambini, sia tutelare il diritto delle persone, bloccando un uso indiscriminato di dati.

“Abbiamo a che fare con un enorme esperimento tecno-culturale. Abbiamo bisogno di misure protettive molto più responsabili perché è in gioco molto: il modo in cui comprendiamo e sperimentiamo la morte e il modo in cui ci preoccupiamo dei morti”.

559 CONDIVISIONI
440 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views