La Commissione Ue vieta ai suoi dipendenti di usare l’intelligenza artificiale per “certi documenti”
Ancora una volta l’Unione Europea vuole regolare il Far Tech, quello spazio aperto senza regole o limitazioni che si crea quando una nuova tecnologia arriva sul mercato e non c’è ancora nessuna legge che definisca cosa può e cosa non può essere fatto. Mentre il Parlamento Europeo sta lavorando all’AI Act per regolamentare tutto il settore dell’intelligenza artificiale, la Commissione Europea ha deciso di adottare un regolamento interno in cui definisce come i suoi dipendenti possono usare questa tecnologia. Il documento è breve, giusto quattro pagine. È stato diffuso il 24 maggio per uso interno ma nelle scorsoe ore è stato pubblicato sul portale di informazione Politico. Qui si legge che lo scopo delle indicazioni è quello di “aiutare i membri del personale a valutare i rischi e i limiti degli strumenti generativi di intelligenza artificiale (IA) disponibili online e stabilire le condizioni per il loro uso sicuro nelle attività lavorative della Commissione”.
Il riferimento è soprattutto a ChatGPT, visto che la sua principale rivale, l’intelligenza artificiale di Google Bard, non è ancora arrivata nell’Unione Europea. Al momento Google ha bloccato il rilascio del suo nuovo software in quest’area per studiare come adattarsi ai regolamenti che esistono in materia di privacy, a partire da GDPR. Anche Sam Altman, il Ceo di OpenAi, ha manifestato negli ultimi giorni qualche fastidio per le norme europea.
Le indicazione della Commissione Ue
Nel documento pubblicato dalla Commissione Ue per i suoi dipendenti, viene chiesto prima di tutto di non condividere con i software che si occupano di intelligenza artificiale informazioni che non sono ancora di dominio pubblico. Le versioni gratuite di questi prodotti infatti non garantiscono una protezione totale delle informazioni trasmesse. Ma non solo. Per evitare risultati imprecisi, o forse semplicemente cadute di stile, la Commissione Ue chiede ai dipendenti di non copiare l’output di questi software in documenti ufficiali. In questo modo infatti si riduce il rischio di diffondere in contesti informazioni errate. Pensiamo a ChatGPT. I suoi algoritmi sono stati perfezionati per fornire delle risposte corrette a livello sintattico, ma non per forza consistenti: una condizione che spesso si traduce nella pubblicazione di risposte che funzionano a livello di lingua ma creano imprecisioni sui dati.