iPhone può creare un doppione della nostra voce e usarla quando noi non possiamo parlare
Apple ha presentato una nuova linea di servizi per iPhone. Un nuovo modo di fare telefonate, un modo diverso di scorrere il menù dello smartphone, di scattare fotografie ma anche di osservare quello che avviene fuori dal telefono. Modalità diverse per chi ha esigenze diverse. La nuova linea di servizi proposta da Apple per iPhone riguarda tutta l’accessibilità. Si parte dal menù, Assistive Access permette di cambiare il menù delle app in due formati: entrambi hanno icone più grandi che occupano tutta la lunghezza dello schermo. È possibile anche disporle in colonna, così da lasciare in modo più evidente il nome dell’applicazione. Ma le due funzioni più interessanti sono quelle che integrano l’intelligenza artificiale.
Live Speech, l’app per scrivere le chiamate
Live Speech è ottimizzato per funzionare su iPhone, iPad e MacBook. Qui gli utenti possono scrivere le frasi che vogliono dire durante una conversazione e farle pronunciare durante una chiamata al telefono o mentre utilizzano FaceTime. Non solo. È possibile anche registrare delle frasi e utilizzarle per intervenire durante le conversazione. L’obiettivo è quello di permettere di partecipare anche a chi non è in grado di parlare. Chi invece sta perdendo l’uso della parola, magari perché è affetto da una malattia degenerativa, può utilizzare Personal Voice, una funzione che in 15 minuti permette di creare un clone della nostra voce con cui poi dare voce a dei testi. Basta leggere una serie di frasi già impostate, un algoritmo di apprendimento automatico si occuperà di campionare tutti i nostri suoni e di legarli con le parole che scriviamo sulla tastiera.
Point and Speak, usare lo smartphone come un nuovo occhio
Apple ha introdotto anche la funzione Point and Speak nell’app Magnifier, attiva su iPhone e iPad. Grazie a questa opzione è possibile leggere tutto quello che viene inquadrato da un videocamera. Nel video di presentazione è stato mostrato l’esempio di un elettrodomestico. Una volta inquadrata la sezione dei comandi l’app legge tutte le opzioni a disposizione, aiutando gli utenti ipovedenti a capire come muoversi per azionare il programma di cui hanno bisogno. L’algoritmo su cui si basa questa funzione può essere usato anche per descrivere l’immagine che riprende o per rilevare la presenza di porte o persone.