Forse l’unico problema è stato il tempismo. Il 28 marzo il ministro dell’Agricoltura Francesco Lollobrigida ha presentato un disegno di legge per bloccare la produzione di carne sintetica in Italia. Il 31 marzo il Garante della Privacy ha bloccato l’accesso a ChatGPT in Italia. L’associazione è stata fin troppo facile. Istituzioni contro la modernità. Il faro del progresso e il velo grigio della burocrazia italiana che mal digerisce qualsiasi innovazione che possa mettere in crisi la Santa Burocrazia. Forse nel caso della carne sintetica è davvero così, ma per il blocco di ChatGPT in Italia è il caso di provare a fare qualche passo in una direzione diversa. Visto come è finita.
Il giorno in cui il Garante ha deciso di bloccare ChatGPT ha sollevato due critiche, come ha spiegato Guido Scorza a Fanpage.it. La prima era che non esisteva nessun filtro per la verifica dell’età. Chiunque poteva accedere anche senza nessuna certificazione, o almeno autocertificazione. La seconda è che non si sapeva nulla dei nostri dati. Dove venivano salvate le conversazioni? Per quanto tempo? Per cosa venivano usati. La scelta del Garante è sembrata eccessiva a un discreto coro di critici, anche perché l’Italia era l’unico Paese ad aver seguito questa strada. Poi però qualcosa si è mosso.
Come il Garante ha cambiato ChatGPT
L’idea che fosse il caso di regolare l’intelligenza artificiale più potente mai arrivata nel mercato di massa è stata accolta anche da altri Paesi. Il 13 aprile il Comitato europeo per la Protezione dei Dati (Edpb) ha lanciato una task force con tutte le autorità per la privacy degli Stati europei per lavorare su ChatGPT. OpenAi, la società che sviluppa ChatGPT, si è messa al lavoro per raccogliere le segnalazioni del Garante e ora il software a cui gli utenti torneranno a chiedere qualsiasi cosa è più controllato, più trasparente e tutela meglio i dati degli utenti.
Appena il software è tornato in Italia, il Garante della Privacy ha diffuso un comunicato sventolando tutti gli scalpi ottenuti da OpenAi. C’è il pannello per la verifica dell’età, c’è un’informativa più completa sulla gestione dei dati, c’è la possibilità di far cancellare informazioni scorrette immagazzinate dall’algoritmo e c’è anche una nota su come verranno trattati i nostri dati. Tutte cose che forse neanche non leggeremo ma che la cui esistenza è fondamentale per noi, per tutelarci da tutti i fantasiosi modi in cui la nostra privacy è stata bucata dai giganti della tecnologia. Mai dimenticare il caso Cambridge Analytica.
E infine lo sappiamo. I software non devono essere umanizzati, anche se la velocità e le risposte ci possono sorprendere sono solo pagine di codice create per svolgere una serie di compiti. Questa volta però non abbiamo resistito e abbiamo chiesto a ChatGPT se è felice del suo ritorno in Italia: “Essendo un modello di linguaggio basato su computer, non sono in grado di provare emozioni come un essere umano. Tuttavia, sono stato progettato per essere sempre disponibile e pronto ad aiutare gli utenti, quindi se posso essere utile, sono felice di farlo!”.