Il mito di un algoritmo italico: ecco la strategia del governo Meloni sull’intelligenza artificiale
La legge sull’intelligenza artificiale era al primo punto dell’ordine del giorno. Nella convocazione apparsa sul portale della Presidenza del Consiglio dei Ministri si legge: “Disposizioni e delega al Governo in materia di intelligenza artificiale”. Al momento parliamo di uno schema di disegno di legge, l’iter da affrontare prima che diventi una legge è ancora lungo ma da quello è emerso si può già vedere quale sarà la direzione del governo guidato da Giorgia Meloni sull’intelligenza artificiale.
Nello specifico, questo disegno di legge dovrà occuparsi anche di definire tempi e metodi per le ricezione dell’Ai Act, il regolamento sull’intelligenza artificiale approvato dal Parlamento Europeo. Qui trovate l'intervista di Fanpage.it all'eurodeputato Brando Benifei, uno dei relatori dell'Ai Act. Il testo dello schema di disegno di legge invece lo trovate sul portale del Consiglio dei Ministri.
La strategia italiana per l’intelligenza artificiale
La strategia che seguirà il governo per l'intelligenza artificiale era già stata anticipata nei mesi scorsi, almeno in due modi. Il primo è un annuncio fatto da Giorgia Meloni a inizio anno: un miliardo di euro da destinare all’intelligenza artificiale. In sé parecchi, certo. Paragonati ad altri dati però la portata dell'investimento si ridimensiona.
Questo miliardo di euro verrà investito in diverse voci di spesa, dalla formazione alla ricerca, e rischia di essere troppo poco rispetto ai colossi del settore. Giusto per dare un dato: nel febbraio del 2024 la valutazione di OpenAi (madre di ChatGPT) è salita a 80 miliardi di dollari grazie a un accordo con la società di venture capital Thrive Capital.
Il secondo è un documento di nove pagine diffuso nelle scorse settimane da Agid, l’Agenzia per l’Italia Digitale. È documento pubblico, in cui vengon riassunte tutte le azioni che il governo Meloni vuole mettere in pratica per entrare nel mercato dell’intelligenza artificiale. Forse troppe.
Cosa ci dice la strategia sull’algoritmo italico
Nella strategia per l’intelligenza artificiale e nelle bozze del disegno di legge presentato al Consiglio dei Ministri c’è un concetto che ritorna in modo almeno curioso. Tra gli obiettivi si legge: “Sviluppare LLM italiani, in particolare tre modelli fondazionali, multimodali nazionali. Eventualmente focalizzandosi su specifici domini applicativi in cui l’Italia detiene una forte riconoscibilità”.
LLM è l’acronimo di Large language model, il nucleo dell’intelligenza artificiale a cui si attaccano tutte le sue applicazioni. Un algoritmo italico quindi? A livello di ricerca, chiaramente, può avere senso. A livello commerciale invece il rischio è quello di lavorare su un modello che poi non riesca ad essere competitivo con il resto del mondo.
Al momento non ci sono ancora esempi di LLM di Stato in grado di imporsi sul mercato. La maggior parte dei modelli sono stati sviluppati, oltretutto con sforzi enormi, da aziende private. Dopo il successo di OpenAi nell’autunno del 2022 ora nella gara ci sono anche tutte le Big Tech. Considerando anche solo Apple, Microsoft, Google e Meta parliamo di aziende che superano serenamente una capitalizzazione di mercato di 1.000 miliardi di dollari.
Il tema però è quello della sovranità tecnologica, quella dottrina che prevede un controllo più serrato sulle tecnologie importanti per il Paese. Lo ha ricordato anche Federico Mollicone, responsabile dell’Innovazione per Fratelli d’Italia. Lo scorso gennaio in un’intervista a The Watcher Post ha detto: “Abbiamo portato il tema della sovranità digitale per primi in Parlamento nel 2018, con un atto che precedeva la linee di indirizzo europee. La sovranità digitale europea è un’emergenza”.
L’essere umano come ultimo responsabile
Interessante invece le indicazioni sull’uso dell’intelligenza artificiale nella pubblica amministrazione e nella sanità. In entrambi i casi c’è un’apertura all’introduzione di sistemi basati su questa famiglia di algoritmi ma con una linea guida che garantisce sempre una responsabilità chiara. L’IA potrà essere di supporto ma alla fine i responsabili di ogni decisione dovranno sempre essere gli umani.
Le pene per i reati con l'intelligenza artificiale
All'interno del disegno di legge vengono citate anche le prime pene detentive per i reati commessi con l'intelligenza artificiale: "Si punisce l’illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità, con la pena da uno a cinque anni di reclusione se dal fatto deriva un danno ingiusto".