Il crescente utilizzo dell’intelligenza artificiale (AI usando l’acronico inglese) sta disegnando nuovi percorsi non solo in ambito cybersicurezza ma, più in generale, in tutti i settori economici. L’impiego di AI si innesta in un contesto sempre più digitale dove la gestione dei dati è dirimente per guidare i cambiamenti del comparto produttivo. Proprio l’unione di questi tre aspetti - AI, digitalizzazione, big data – è oggi la sfida più grande per un sistema economico che ha ormai cambiato paradigma di sviluppo e interazione.
Il Prof. Maurizio Mensi, consigliere CESE per CIU-Unionquadri, ci ha aiutato a capire come e perché l’Unione europea e le altre potenze mondiali si stanno attrezzando per governarne la rivoluzione della “New AI-conomy”.
Lo scambio di battute nasce a margine dell’evento promosso dalla CIU, “Il G.D.P.R. a cinque anni dalla sua applicazione. L'impatto delle nuove tecnologie tra privacy e cybersicurezza, intelligenza artificiale e Quantum Computing”, che si è tenuto presso il CNEL ad inizio aprile.
AI e protezione dei dati: cosa sta facendo l’UE e che approccio stanno adottando le altre nazioni nel mondo?
Alla base di tutto ci sono i dati, raccolti e analizzati con tecniche sempre più evolute. Da essi dipende il funzionamento e l’evoluzione dei sistemi di AI, che sono l’elemento centrale e la fondamentale risorsa di un assetto economico nuovo, dotato di flessibilità, autonomia, decentralizzazione. Un nuovo ordine che richiede una nuova regolamentazione. La rapida rivoluzione tecnologica che stiamo vivendo ha reso velocemente inadeguato il “sistema”.
Per questa ragione, l’Unione europea si sta impegnando su questo tema. Ne sono personale testimone per l’attività che svolgo al CESE. Il cantiere normativo avviato nel 2016 con il “pacchetto privacy” e il regolamento cosiddetto GDPR, proseguito con la direttiva NIS e le iniziative in tema di cybersicurezza e intelligenza artificiale, testimoniano la consapevolezza dell’Unione europea della necessità di dotarsi con urgenza di strumenti normativi adeguati a promuovere l’innovazione e rispondere alle sue sfide, anche di carattere sociale e culturale. È questo il modello EU di cui essere orgogliosi.
In particolare, recentemente, Unione europea ha approvato la legge sull'intelligenza artificiale. Quello proposto dall’UE con l’AI Act rappresenta senza dubbio un modello di riferimento, anche se è presto per ritenere che, in virtù dell’“effetto Bruxelles”, diventerà uno standard internazionale, come è stato il regolamento del 2016 sulla protezione dei dati personali. Basato su divieti e una serie di prescrizioni, graduate a seconda del rischio, l’AI Act prevede inoltre trasparenza, requisiti di conformità, accountability e sanzioni in caso di violazioni. Insomma, molte regole, puntuali e dettagliate, pienamente applicabili due anni dopo la sua entrata in vigore, vale a dire dal 2026.
Come contraltare abbiamo il modello statunitense, più orientato al mercato e all’innovazione, caratterizzato da un approccio “light touch” in tema di regolamentazione e collaborativo con le Big Tech, esemplificato dall’Ordine esecutivo della Casa Bianca su un AI “Safe, Secure, and Trustworthy” adottato il 30 ottobre 2023.
Tale approccio è sostenuto anche dal Regno Unito nel “1st Report of Session 2023–24 del “Communications and Digital Committee” della Camera dei Lords, in tema di “Large language models and generative AI”, pubblicato il 2 febbraio 2024. Secondo questo documento il Paese dovrebbe puntare su regole proporzionate per mantenere “flessibilità strategica” e proporsi come esempio a livello internazionale, investendo nello sviluppo di standard accreditati e metodi di verifica comuni. Questo per garantire un’innovazione responsabile, sostenere lo sforzo delle imprese e assicurare un’adeguata supervisione sull’AI.
Investire in AI è sinonimo di crescita per un Paese?
Il legame è stretto ma non scontato. Per utilizzare al meglio l’AI - vero “game changer” destinato a forgiare il futuro delle prossime generazioni, incidere sul destino tecnologico di regioni e Paesi, guidare lo sviluppo di comunità e sistemi produttivi - è importante investire sul capitale umano; un elemento finora piuttosto trascurato ma decisivo per il successo (o l’insuccesso) delle varie strategie nazionali.
All’insegna di un “sovranismo tecnologico” che variamente combina fra loro ricerca, investimenti mirati e innovazione per qualificare il proprio sistema economico, con settori strategici come banche, sanità e difesa a fare da traino, Gran Bretagna, Francia, Germania, India, Arabia Saudita ed Emirati Arabi Uniti, oltre a Stati Uniti e Cina, stanno impegnando ingenti risorse per costruire una propria via nazionale all’AI.
La Cina, secondo JW Insights, ha speso tra il 2021 e il 2022 quasi 300 miliardi di dollari per creare la catena di fornitura dei semiconduttori e aiutare Huawei e SMIC a progettare e produrre una GPU avanzata per addestrare i modelli di AI, con le autorità centrali e locali impegnate a valorizzare le aziende di AI attraverso “fondi di orientamento” sostenuti dallo Stato. Mentre il governo indiano sta promuovendo la produzione di semiconduttori con incentivi legati alla produzione e incoraggiando i grandi fornitori di cloud a costruire in loco data center per formare i modelli di intelligenza artificiale.
Elemento chiave di tali strategie sono gli investimenti nel capitale umano.
Ne sono esempio, come ha rivelato l’Economist, il programma di intelligenza artificiale del centro universitario di Scienza e Tecnologia King Abdullah in Arabia Saudita e l'Università Mohamed bin Zayed di Abu Dhabi (MBZUAI), la prima scuola al mondo dedicata all’IA, i cui finora 200 laureati sono rimasti a lavorare presso aziende e laboratori locali, arricchendo il territorio di risorse qualificate, come dichiara con orgoglio il suo rettore Timothy Baldwin.
D’altronde, l’AI Report 2024 presentato a Davos dall’Oliver Wyman Forum, indica che nel prossimo decennio la vera sfida della “New AI-conomy” sarà quella della formazione e della riqualificazione professionale, per consentire la transizione al mondo nuovo non solo per chi acquisisce nuove competenze, ma anche per chi cambia occupazione. i qui la necessità di combinare AI generativa e lavoro umano, con investimenti nello sviluppo e impiego dei talenti e una rinnovata attenzione sia alle abilità necessarie per utilizzare gli strumenti dell'IA generativa, sia a soft skills essenziali come la comunicazione e il pensiero critico.
Chi gestirà l’impianto della AI nelle aziende pubbliche e private?
Il prossimo futuro renderà necessario non solo la capacità di gestire e rinnovare le proprie competenze nei vari settori alla luce dell’AI ma anche la presenza di esperti dei sistemi di AI per verificarne la conformità alle regole vigenti.
Negli Stati Uniti, è previsto che ogni agenzia federale e ufficio governativo designi un responsabile per l’AI e lo stesso dovrà avvenire anche nel nostro Paese, con la presenza in ogni ente pubblico e impresa privata che utilizzi l’AI di una figura simile al responsabile della protezione dati personali (DPO) prevista dal regolamento (GDPR) del 2016.
Il 28 marzo scorso l’Ufficio del Management e Budget della Casa Bianca ha inviato un Memorandum ai responsabili delle agenzie federali per istituire un Chief AI Officer (CAIO) entro 60 giorni per rendere effettiva la governance dell’AI.
Si tratta di un esempio che dovremmo seguire nel nostro Paese, prevedendo fin d’ora che in ogni ente/amministrazione pubblica vi sia un responsabile per l’AI.