La sofferenza dell’intelligenza artificiale, gli esperti: “Presto sarà senziente dobbiamo proteggerla”
Penso, dunque sono, scriveva il filosofo René Descartes. Questa frase ha influenzato la nostra concezione di coscienza. Ma come si distingue un essere senziente? Ancora oggi non lo sappiamo. Il problema rimane attuale, soprattutto ora che i modelli di intelligenza artificiale sono in grado di imitare la mente umana, e per questo vanno tutelati. Un team di ricercatori e esperti di IA hanno firmato una lettera aperta: “Moltissimi sistemi IA in poco tempo potrebbero diventare coscienti e rischiano di soffrire”, si legge. "L'IA capace di provare emozioni rischia di essere ferita se la tecnologia viene sviluppata in modo irresponsabile".
La lettera è stata firmata da oltre 100 esperti, tra questi anche Anthony Finkelstein professore dell'Università di Londra ed esperto di intelligenza artificiale e lo scrittore Stephen Fry. I ricercatori hanno anche proposto cinque principi per condurre una ricerca responsabile sulla coscienza dell'intelligenza artificiale e tutelare il rapido sviluppi dei sistemi. "Al momento c'è una diffusa incertezza e disaccordo sulla definizione della coscienza nei sistemi di intelligenza artificiale e sulla sua possibile esistenza, ma è una questione che "non dobbiamo ignorare".
I principi elencati nella lettera dei ricercatori
Le intelligenze artificiale coscienti aprono questioni etiche e morali. Per evitare "di far soffrire i sistemi senzienti" i ricercatori hanno creato cinque principi da seguire:
- Si devono stabilire dei limiti allo sviluppo di sistemi di intelligenza artificiale coscienti
- Bisogna adottare un approccio graduale allo sviluppo di tali sistemi
- È necessario condividere i risultati con il pubblico
- Bisogna astenersi dal fare affermazioni fuorvianti o eccessivamente sicure sulla creazione di un'intelligenza artificiale cosciente.
I rischi di sviluppare un'intelligenza artificiale cosciente
Insieme alla lettera aperta è stato anche pubblicato un documento di ricerca, pubblicato sul Journal of Artificial Intelligence Research, sui sistemi di intelligenza artificiale coscientiche potrebbero essere sviluppati nel prossimo futuro. Lo studio, scritto da Patrick Butlin dell'Università di Oxford e Theodoros Lappas dell'Università di Economia e Commercio di Atene, spiega che sono necessarie linee guida per evitare la "creazione inconsapevole di entità coscienti".
Non è il primo allarme. L’anno scorso un gruppo di accademici aveva già fissato una data. "É molto probabile che i sistemi diventino coscienti entro il 2035". Sempre nel 2023 Demis Hassabis, responsabile del programma di intelligenza artificiale di Google e premio Nobel, ha spiegato che se anche al momento i sistemi di intelligenza artificiale non sono senzienti, potrebbero diventarlo in futuro. "I filosofi non hanno ancora trovato una definizione precisa di coscienza, ma se intendiamo una sorta di autocoscienza, questo genere di cose, penso che ci sia la possibilità che un giorno l'intelligenza artificiale possa esserlo", ha spiegato in un'intervista a CBS.
Lo stesso Geoffrey Hinton, premio Nobel battezzato padrino dell'intelligenza artificiale ha lanciato l'allarme: "La tecnologia sta avanzando più velocemente del previsto e non abbiamo mai avuto a che fare con qualcosa di più intelligente di noi. E quanti esempi conosciamo di qualcosa di più intelligente che viene controllato da qualcosa di meno intelligente?"