Perché il Garante ha multato ChatGPT: il problema è sempre l’uso dei dati personali
La decisione è stata pubblicata sul portale ufficiale del Garante della Privacy il 20 dicembre. Dal punto di vista tecnico si tratta di un provvedimento correttivo e sanzionatorio che ha come destinatario OpenAI, la società conosciuta per aver creato ChatGPT. In breve, OpenAI ora dovrà fare due cose: pagare una sanzione da 15 milioni di euro e iniziare una campagna di informazione di sei mesi su “radio, televisione, giornali e internet”.
All’origine di tutto c’è la contestazione che aveva bloccato ChatGPT a marzo del 2023, quando il Garante aveva bloccato ChatGPT in Italia per circa un mese. Come si legge nel comunicato del Garante infatti ChatGPT è stata addestrata con i dati personali degli utenti senza che venisse prima definita una “base giuridica” per farlo. Non solo, OpenAI non ha informato le autorità di un attacco hacker che ha colpito i suoi database.
Nel campo dell’intelligenza artificiale per addestramento si intende quel processo attraverso cui questi algoritmi non solo acquisiscono nuove informazioni ma imparano anche a seguire dei percorsi che poi li portano ad offrire soluzioni corrette alle richieste che vengono fatte.
La risposta di OpenAI e la contestazione sui 15 milioni di dollari
Interessante il passaggio sulla multa da 15 milioni di dollari. Il Garante sostiene che sia una sanzione calcolata “tenendo conto dell’atteggiamento collaborativo della società”. Si suppone quindi senza alzare troppo l’asticella. La cifra però viene attaccata da OpenAI che in una nota stampa ha replicato:
"La decisione non è proporzionata e presenteremo ricorso. Quando il Garante ci ha ordinato di sospendere ChatGPT in Italia nel 2023, abbiamo collaborato con l’Autorità per renderlo nuovamente disponibile un mese dopo. La sanzione rappresenta circa venti volte il fatturato da noi generato in Italia nello stesso periodo. Questo approccio compromette le ambizioni dell’Italia per l’intelligenza artificiale”.