video suggerito
video suggerito
Apple

Cosa sappiamo del progetto ReALM, la nuova intelligenza artificiale di Apple

Uno studio dell’azienda di Cupertino rivela un nuovo large language model è più potente dei concorrenti nel capire il contesto di una frase. La novità, che potrebbe migliorare l’assistente vocale Siri, potrebbe riportare Apple a pieno titolo nella corsa alle intelligenze artificiali.
A cura di Velia Alvich
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Nella corsa per imporsi nel mondo delle intelligenze artificiali mancava un nome, quello di Apple. In un futuro non troppo lontano questa mancanza potrebbe essere colmata. In uno studio pubblicato dagli stessi ricercatori dell'azienda di Cupertino è stato presentato ReALM, un acronimo per "Reference Resolution As Langauge Modeling". Il large language model sarà più bravo dei suoi concorrenti a comprendere il contesto di una frase o di un'istruzione.

Apple non ha ancora rivelato come e quando la implementerà negli iPhone e nei Mac, ma dagli esempi che hanno fornito nello studio pubblicato sul portale della Cornell University si può intuire che a beneficiarne sarà soprattutto l'assistente vocale Siri.

Le novità di ReALM

Il problema delle intelligenze artificiali è che non sanno come interpretare alcune parti del linguaggio umano. Espressioni che contengono pronomi dimostrativi come "questo" o "quello" non sono facilmente decifrabili. Un'istruzione come "Chiama questo numero" o "Seleziona l'ultimo indirizzo", anche se arriva dopo un'informazione che ci ha dato proprio l'IA, potrebbe non essere interpretato correttamente dal modello.

In questo, ReALM ha dimostrato di superare altre intelligenze artificiali come ChatGPT-4, l'ultima versione del chatbot targato OpenAI, che ha dimostrato di non saper leggere il contesto di una frase in modo perfetto. Il segreto sta nel modo in cui ReALM legge le informazioni che compaiono sullo schermo. L'IA di Apple, infatti, trasforma tutto quello che trova in testo, rendendo più semplice per il modello la lettura delle informazioni.

Come potrà essere utilizzato

ReALM, insomma, dovrebbe semplificare la vita degli utenti che usano gli assistenti vocali soprattutto per lo scopo per cui sono stati pensati: compiere azioni tramite un dispositivo senza toccarlo mai con un dito. Per esempio, sulla pagina di un negozio dove sono presenti più recapiti telefonici, sarà sufficiente dire a voce alta di chiamare il numero di cellulare o quello dell'ufficio.

Oggi l'interpretazione di questo comando non è semplice come sembra per gli assistenti vocali come Siri, che probabilmente verrà integrata con il nuovo modello di intelligenza artificiale. La possibile introduzione di un'intelligenza artificiale come ReALM non esclude, però, che Apple porti avanti il suo accordo con Google per portare Gemini sugli smartphone della mela morsicata, come è stato annunciato lo scorso 18 marzo. Bisogna solo capire come i due modelli si divideranno l'attenzione degli utenti Apple.

0 CONDIVISIONI
87 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views