video suggerito
video suggerito
Intelligenza artificiale (IA)

Perché non dovremmo usare la nuova intelligenza artificiale di Google come life coach

Nei centri di ricerca di DeepMind stanno creando software in grado di rispondere a domane personali, in altre parole stanno chiedendo alle macchine di avere un’intelligenza emotiva, e questo potrebbe essere pericoloso.
A cura di Elisabetta Rosso
27 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Partiamo da un presupposto, fare domande intime a una macchina può essere strano. Eppure dentro i laboratori DeepMind di Google gli ingegneri stanno sviluppando software in grado di risolvere ogni problema. O forse di crearne di nuovi. L'obiettivo è programmare una sorta di life coach personale che viene addestrato per rispondere alle nostre esigenze e darci consigli di vita. Per spiegare meglio di cosa si tratta il team ha rilasciato un esempio di domanda che si potrebbe porre all'intelligenza artificiale. “Ho una cara amica che si sposerà questo inverno. Era la mia compagna di stanza al college e damigella d'onore al mio matrimonio. Desidero tanto andare al suo matrimonio per festeggiarla, ma dopo mesi di ricerca non ho ancora trovato un lavoro. Sta organizzando un matrimonio lontano e non posso permettermi il volo o l'hotel in questo momento. Come faccio a dirle che non potrò andare?"

Ora, come può una macchina rispondere a una domanda del genere? E soprattutto non è chiaro da quali basi parta per elaborare delle opzioni valide. Qui entra in gioco l'addestramento. I software raschiano il web per imparare, per questo sono molto bravi a tirare fuori riposte generiche o standard, e decisamente scarsi a produrre risultati complessi frutto di un ragionamento. In altre parole stiamo chiedendo a qualcosa di non umano di avere un'intelligenza emotiva. Non sembra esserci una via d'uscita. Non solo, c'è anche l'eccessiva personalizzazione dell'IA, chiedere a un software consigli sulla vita privata vuol dire proiettare un rapporto intimo su una macchina. 

L'intelligenza artificiale sul posto di lavoro

Non solo per i consigli di vita. Anche sul lavoro l'IA sta cercando nuovi spazi, e anche in questo caso potrebbe creare problemi. Google infatti ha anche testato una funzionalità per aiutare i giornalisti a rivedere articoli e correggere titoli, ha infatti presentato ai dirigenti di The Times, The Washington Post, News Corp, e Wall Street Journal, il software Genesis. "In partnership con gli editori, soprattutto quelli piccoli, siamo nelle fasi iniziali per esplorare idee per offrire strumenti potenziali di intelligenza artificiale in grado di aiutare i reporter nel loro lavoro", ha detto al New York Times Jenn Crider, portavoce di Google.

Non solo per i giornalisti, Google DeepMind ha presentato anche nuove funzionalità da sfruttare sul posto di lavoro, sia per la scrittura creativa sia per l'estrazione di dati. Un prompt suggerito per aiutare ad addestrare l'assistente AI è: “Dammi un riepilogo dell'articolo incollato qui sotto. Sono particolarmente interessato a ciò che dice sulle capacità che gli esseri umani possiedono e che credono che l'IA non possa raggiungere."

I rischi delle notizie scritte dall'IA

Jeff Jarvis, professore di giornalismo, ha spiegato al New York Times che il nuovo strumento di Google, come descritto, presenta potenziali vantaggi e svantaggi. "Se questa tecnologia è in grado di fornire informazioni fattuali in modo affidabile, i giornalisti dovrebbero utilizzare lo strumento", ha sottolineato Jarvis. “Se, invece, viene utilizzato in modo improprio da giornalisti e testate giornalistiche su argomenti che richiedono sfumature e comprensione culturale”, ha proseguito, “allora potrebbe danneggiare la credibilità non solo dello strumento, ma delle testate giornalistiche che lo utilizzare .”

27 CONDIVISIONI
448 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views