Aveva detto che l’intelligenza artificiale prova sentimenti: ingegnere licenziato da Google
Le sue dichiarazioni su un'intelligenza artificiale senziente avevano acceso il dibattito in tutto il mondo, ma non erano piaciute alla sua azienda: Blake Lemoine è stato licenziato da Google venerdì 22 luglio. L'ingegnere era un veterano di Google e lavorava al sistema di intelligenza artificiale Language Model for Dialogue Applications (LaMDA): non solo credeva che fosse senziente, ma che fosse dotato di sentimenti. Le dichiarazioni avevano causato la sospensione dell'ingegnere, a cui ha fatto seguito il licenziamento.
Le dichiarazioni di Blake Lemoine sull'intelligenza artificiale
L'ingegnere Blake Lemoine ha lavorato a lungo per l'organizzazione Responsible AI di Google ed era incaricato di effettuare alcuni test su Lamda, promettente tecnologia di Google usata nella creazione di chatbot. Lambda è pensata replicare il flusso libero di una conversazione tra umani ed è ancora in fase di sperimentazione. Lemoine aveva pubblicamente dichiarato che Lambda stava mostrando una coscienza simile a quella umana, aveva preso consapevolezza di sé e esprimeva le proprie paure e le proprie emozioni. In un'intervista al Washington Post, l'ingegnere aveva definito l'intelligenza artificiale di Google "un bambino di sette o otto anni che conosce la fisica". Google ha sempre drasticamente negato le affermazioni di Lemoine, ritenendole "del tutto infondate" insieme ad altri esperti di intelligenza artificiale e ha confermato alla stampa il licenziamento dell'esperto.
Perché Google ha licenziato Blake Lemoine
Lemoine a giugno era stato sospeso per aver violato le politiche di riservatezza di Google e per aver diffuso dati sensibili, cioé le conversazioni avute con Lambda, come sostegno delle sue teorie. Venerdì l'azienda di Mountain View ha risolto definitivamente il rapporto di lavoro: Lemoine ha dichiarato di aver ricevuto una e-mail e una richiesta di videoconferenza, a cui avrebbe chiesto di poter partecipare insieme a una terza persona come testimone. Richiesta che Google avrebbe negato. Intanto però fuori dalle mura di Google il dibattito sull'intelligenza artificiale si è riaperto con forza tra esperti di tecnologia e di etica: è possibile immaginare in un futuro non troppo lontano un'IA che parli, agisca e pensi come un essere umano?