video suggerito
video suggerito
Intelligenza artificiale (IA)

Ora ChatGPT ha imparato a parlare: come provarlo

L’intelligenza artificiale entra in modalità multimediale, in realtà esistono già gli assistenti vocali, ma vengono utilizzati per svolgere piccole interazioni meccaniche. Con il chatbot di Open AI sarà invece possibile avere conversazioni complesse.
A cura di Elisabetta Rosso
17 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Ora ChatGPT vede, parla e sente. L'aggiornamento delle applicazioni mobili di ChatGPT per iOs e Android, annunciato il 25 settembre, permetterà agli utenti di rivolgere domande al chatbot che risponderà grazie a una funzione di sintesi vocale. Non solo, ChatGPT sarà potenziata anche sul fronte visivo, sarà in grado di analizzare le foto che vengono caricate all'interno della chat. OpenAI ha presentato cinque voci diverse, l'utente può selezionare quella che preferisce per interagire con il chatbot. "Le personalità" come le chiama l'azienda, si chiameranno Sky, Ember, Breeze, Juniper e Cove. Ogni personaggio avrà un timbro e un accento diverso che lo caratterizza. Sembra che Sky assomiglierà a Samantha, l'assistente vocale del film Her. "Con questa funzione puoi semplicemente parlare", ha detto in un'intervista con il Washington Post Peter Deng, vicepresidente dei prodotti di consumo di OpenAI. "I miei figli ora richiedono favole della buonanotte da ChatGPT."

"Questa è la nostra sfida qui", ha aggiunto Deng. “Uno dei lavori più difficili è prendere questa straordinaria tecnologia e renderla semplice”. OpenAI ha infatti spiegato che la possibilità di conversare con un chatbot "è un modo per convincere più persone a interagire e utilizzare ChatGPT". Le nuove funzioni saranno disponibili in un primo momento solo in lingua inglese e nella versione a pagamento di ChatGPT che costa 20 dollari al mese.

Le nuove funzionalità di ChatGPT

Finora è stato possibile fare domande a ChatGPT scrivendo sulla sua interfaccia conversazionale, ora l'asticella si alza. Sarà infatti possibile "parlare" con il chatbot, ma anche, come dicevamo, caricare immagini. Per esempio le foto degli ingredienti nel frigorifero per chiedere al software cosa cucinare. L'intelligenza artificiale entra quindi in modalità multimediale, sarà in grado di scrivere, vedere, sentire e parlare. In realtà gli assistenti vocali sono già presenti da anni sugli smartphone, televisori o altoparlanti domestici. Eppure sono chiamati in causa per svolgere piccole interazioni meccaniche: mettere la musica, sveglie, o spegnere le luci.

Con l'introduzione dell'intelligenza artificiale possono imparare a conversare, o rispondere a domande complesse. E qua sorge un altro problema. Secondo i ricercatori infatti il rischio è che gli utenti antropomorfizzino i chatbot, visto che sono particolarmente bravi a imitare il linguaggio umano. Anche l'ultimo aggiornamento di Alexa si muove in questa direzione.

Il ritardo di Amazon

L'annuncio arriva insieme a quello di Amazon. Lunedì infatti l'azienda ha dichiarato di aver firmato un accordo per investire 4 miliardi di dollari in un'altra start-up di intelligenza artificiale, Anthropic, fondata da ex dipendenti di OpenAI. "Questo annuncio è un altro modo in cui Amazon dimostra al mercato di essere un attore legittimo nello spazio GenAI e di superare la percezione di essere indietro", ha detto Jim Hare, vicepresidente della società di ricerca tecnologica Gartner. È l'investimento più importante nel campo IA dopo i 10 miliardi di Microsoft per OpenAI, eppure è un investimento che arriva in ritardo (nonostante le parole di Hare). C'è una corsa agli armamenti, le aziende infatti hanno iniziato a scommettere su approcci diversi per stare al passo con i progressi dell'intelligenza artificiale. Google tra integrando la tecnologia vocale nel suo chatbot Bard, Amazon su Alexa. In testa però, al momento, rimane ChatGPT.

17 CONDIVISIONI
482 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views