OpenAI svela il nuovo modello gratuito di ChatGPT: si chiama ChatGPT-4o e vuole parlare come un umano
La sera di lunedì 13 maggio OpenAI, la società madre di ChatGPT ha presentato ChatGPT-4o. Certo, dalle anticipazioni ci si aspettava ben altro. Prima che Sam Altman smorzasse gli entusiasmi, si pensava che OpenAi avesse sfruttato l’appuntamento del 13 maggio per presentare il suo primo motore di ricerca basato proprio sull’intelligenza artificiale.
ChatGPT nell’autunno del 2022 si è avvicinato moltissimo agli assistenti virtuali empatici e onniscienti che abbiamo imparato a conoscere nei film, con delle barriere evidenti. Non era allacciato a internet e quindi non poteva rispondere a nulla che fosse collegato con l’attualità e non aveva una versione vocale, funzionava solo con uno scambio tra testi.
Con l’ultimo aggiornamento di ChatGPT però le cose per l'intelligenza artificiale potrebbero cambiare. L'obiettivo della creazione di un vero assistente virtuale è più vicino. Anche se l'idea di avere un'entità cosciente accanto a noi sembra ancora lontana.
Le novità del nuovo modello: come funziona ChatGPT-4o
Di ChatGPT-4o ha fatto impressione una cosa. Nel video di presentazione ci sono gli ingegneri di OpenAI attorno a un tavolo. Tutti parlano con ChatGPT, direttamente dall’app sul loro smartphone. Usano le funzioni vocali, da tempo infatti il chatbot di OpenAi ha inserito una serie di voci che possono trasformare in discorsi i comandi dell’intelligenza artificiale.
Questa volta però la voce non è uguale a tutte quelle che di solito vengono attribuite all’intelligenza artificiale. C’è intonazione, le parole sono fluide e modulate, sembra di parlare con qualcuno ma è tutto dettato da codice informatico. ChatGPT si sorprende, scambia qualche battuta risponde come se fosse seduta al tavolo con gli altri.
Non solo. ChatGPT-4o ha implementato anche funzioni che permettono all'intelligenza artificiale di leggere anche le informazioni che arrivano dalle immagini. Tra i test fatti uno riguarda anche le capacità di riconoscere le emozioni disegnate nei volti. Impressionanti anche le capacità di traduzione simultanea: la prova sul palco è stata fatta direttamente in italiano.
Il tempo necessario per decifrare un volto dovrebbe essere poco più di 300 millisecondi. Il nuovo modello, stando agli annunci dovrebbe essere gratuito anche per gli utenti che non hanno sottoscritto un abbonamento per le versioni premium. OpenAi ha annunciato anche il lancio di un'app per Microsoft e Mac OS. E ancora. Presto tutti gli utenti potrebbero accedere al GPT Store, dove si possono scaricare i plug in per ChatGPT.
Le differenze tra GPT-4o e i modelli precedenti
Le differenze tra GPT-4o e i modelli precedenti non riguardano solo le nuove funzioni. O meglio, le nuove funzioni sono possibili proprio grazie a una struttura che è molto più potente rispetto alle versioni di ChatGPT viste fino a questo momento. Nello specifico secondo OpenAI la nuova ChatGPT 4o ha un livello di performance paragonabile a ChatGPT 4 Turbo quando viene usata in lingua inglese ma è molto più potente quando viene usata con altre lingue. Spesso infatti le intelligenze artificiali funzionano meglio in inglese perché è la lingua sui cui sono state allenate.
Il richiamo con il film Her
Il riferimento, esplicitato, è al film Her. Questa pellicola è stata girata nel 2013 da Spike Jonze e ha come protagonista Joaquin Phoenix. È un film molto ripreso quando si parla di intelligenza artificiale perché racconta un mondo poco oltre il nostro presente in cui gli assistenti vocali in grado di sviluppare forme di coscienza.
La voce dell’assistente virtuale di Joaquin Phoenix è interpretata da Scarlett Johansson, interpretata in Italia da Micaela Ramazzotti. Durante il film il protagonista si innamora della sua assistente virtuale. Non facciamo spoiler per il finale, anticipiamo solo che non finisce con e “vissero felici e contenti”.