
Ad aprile 2024 UK e USA hanno firmato un accordo per avviare progetti di ricerca e disciplina comune dell’AI. I due paesi hanno seguito diversi approcci dal punto di vista interno per regolamentare il settore, ma pur nella diversità è possibile cogliere delle linee comuni che costituiranno le fondamenta del futuro rapporto tra istituzioni pubbliche e intelligenza artificiale.
Il 1° aprile 2024 il Regno Unito e gli Stati Uniti d’America hanno firmato un Memorandum of understanding (MOU) che sancisce la loro collaborazione per sviluppare controlli e ricerche congiunte nell’ambito dell’intelligenza artificiale (AI), dando seguito agli impegni assunti durante l’Ai Safety summit dello scorso novembre.
Gli Istituti per la sicurezza della IA dei due paesi lavoreranno in sintonia per l’elaborazione di linee guida, condividendo informazioni e scambiandosi personale specializzato. La partnership è entrata in vigore immediatamente, in quanto i governi di entrambi i paesi hanno riconosciuto la necessità di agire immediatamente in questo settore in continua espansione.
La Segretaria al commercio degli Stati Uniti, Gina Raimondo ha affermato che l’intelligenza artificiale sarà la tecnologia che definirà l’attuale generazione, un po’ come internet lo è stato per la precedente. Michelle Donelan, Segretaria di stato britannica per la scienza, l’innovazione e la tecnologia, ha sottolineato che questo accordo spianerà la strada ad altre esperienze analoghe con tutti gli Stati che vorranno sfruttare le enormi potenzialità dell’intelligenza artificiale in modo sicuro e responsabile.
Recentemente il Ministero dell’Università e della Ricerca italiano ha pubblicato un bando congiunto con la National Science Foundation of the United States (NSF) finalizzato a sostenere progetti di ricerca bilaterali con fondi di entrambi i paesi, dando seguito ad un accordo del 2022.
Come anticipato nel 2023, il Regno Unito ha mantenuto la volontà di favorire l’innovazione nel settore dell’intelligenza artificiale, valorizzando il ruolo del Dipartimento per la scienza, l’innovazione e la tecnologia (DSIT). Si tratta di un approccio intersettoriale. Lo scopo è quello di bilanciare l’innovazione e la sicurezza.
Pur riconoscendo che prima o poi sarà necessario un intervento legislativo del Parlamento, le autorità britanniche hanno ritenuto che la situazione attuale sia ancora poco definita e quindi il legislatore rischierebbe di assumere decisioni inopportune. Quindi, a differenza dell’Unione Europea, il Regno Unito ha valutato necessario attendere una migliore comprensione dei rischi e delle potenzialità dell’intelligenza artificiale. Ad oggi quindi le misure in materia di sicurezza digitale andranno implementate su base volontaria.
Il Governo britannico ha riconosciuto la necessità di distinguere le tipologie di intelligenza artificiale, concentrando gli sforzi di controllo su quelle con maggiori potenzialità.
Le principali aziende che sviluppano sistemi di intelligenza artificiale “altamente capace” si sono già concentrate spontaneamente nell’implementare la sicurezza e la trasparenza in vista del primo vertice globale sulla sicurezza dell’AI dello scorso novembre, ospitato proprio dal governo britannico. Molte imprese si sono impegnate per il futuro a collaborare con il costituendo AI Safety Institute.
Comunque, già solo il riconoscimento della necessità di un futuro intervento normativo segna un importante passo per i successivi sviluppi della materia in area britannica. Nei prossimi mesi le autorità di regolazione dei diversi settori dell’economia pubblicheranno atti di regolazione che avranno in futuro un ruolo supplementare rispetto alla legge generale. Ciò determinerà un significativo sforzo per le imprese coinvolte, che dovranno adeguarsi alla maggiore regolamentazione del settore. Inoltre, il Governo prevede di istituire un’autorità centrale per il coordinamento delle varie amministrazioni operanti nel settore. Così sarà possibile una valutazione ad ampio spettro dei rischi e il mantenimento di un’auspicabile omogeneità delle linee guida.
Un ulteriore aspetto interessante dell’intervento delle istituzioni britanniche sta nella creazione dell’AI Digital Hub, un servizio di consulenza multidisciplinare che sarà lanciato prima dell’estate dalla DRCF (Digital Regulation Cooperation Forum) per aiutare gli operatori del settore a rispettare la regolamentazione del settore prima del lancio di nuovi prodotti. La DRCF ha comunicato che pubblicherà i lavori effettuati come casi di studio per fornire delle indicazioni pratiche per orientarsi nel settore.
Il Governo statunitense sta prendendo in considerazione diverse proposte legislativeper regolare il settore dell’intelligenza artificiale dopo i primi passi già compiuti in questo senso.
Già lo scorso giugno è stata presentata una proposta di legge che mira ad ampliare la tutela legale di fronte alle grandi imprese che gestiscono i social media e che consentono la pubblicazione di contenuti creati con l’AI. L’intento della proposta sarebbe principalmente quello di arginare il fenomeno della diffusione dei cosiddetti deepfake, video generati con l’intelligenza artificiale talmente realistici da rendere quasi impossibile distinguerli da un filmato originale. L’idea sarebbe quella di promulgare una legge speciale rispetto a quella che disciplina la responsabilità, di fatto escludendola, dei gestori delle piattaforme digitali per i contenuti pubblicati al loro interno dagli utenti. L’intenzione sarebbe quella di prevedere solo per questo caso una responsabilità per i post generati con l’AI che siano dannosi per degli individui. Fondamentalmente si vorrebbe sfruttare la leva della responsabilità civile per spingere tali imprese ad effettuare un controllo più rigoroso.
Nello stesso periodo è stata proposta l’istituzione di una commissione nazionale sull’intelligenza artificiale con i compiti di: valutare l’approccio degli Stati Uniti alla regolamentazione del settore, presentare raccomandazioni e valutare l’opportunità di istituire nuovi uffici per gestire il settore all’interno dell’apparato esecutivo.
Il 13 settembre si è tenuto a Washington il primo AI Insight Forum, un grande congresso incentrato sull’intelligenza artificiale e sul suo futuro. L’incontro era aperto ai membri del Senato, agli amministratori delle grandi società operanti nel settore digitale, ad esponenti del settore della difesa, della ricerca e della società civile.
Il magnate delle nuove tecnologie Elon Musk ha sostenuto l’opportunità dell’istituzione di un’autorità apposita. Mark Zuckerberg ha affermato la necessità di un intervento del Congresso che bilanci le diverse esigenze in gioco, in particolare lo sviluppo digitale e la tutela della sicurezza dei cittadini. Quella di Zuckerberg è una posizione non sempre accolta in ambito statunitense, poiché prevede un ruolo da protagonista per le istituzioni statali nella ponderazione degli interessi, più comune in ambito europeo continentale.
Un ulteriore tema discusso è stato quello dell’ammissibilità delle intelligenze artificiali open source, cioè aperte alle modifiche da parte degli utenti privati. Questo è un modello comune nell’ambito dei siti di informazione enciclopedica. A detta di molti tale modello democratizza il settore digitale e ne favorisce lo sviluppo ma altri esperti hanno manifestato perplessità perché si rischia di favorire abusi da parte degli utenti. Del resto, è ormai risaputo che uno dei maggiori problemi dell’intelligenza artificiale è quello di non saper discernere tra i contenuti discriminatori forniti all’algoritmo, che sulla base di essi rischia di generare risultati altrettanto lesivi della dignità umana.
Con la votazione del 13 marzo 2024 è stato approvato il Regolamento europeo sull’Intelligenza artificiale, così l’Unione Europea si è posta come apripista nella disciplina legislativa dell’AI. Come per tutti i regolamenti, la normativa è direttamente applicabile e non necessita di attuazione interna da parte degli stati membri, garantendo l’uniformità della disciplina e la primazia del diritto europeo.
L’approccio è quello, già sperimentato, basato sul rischio. I sistemi di AI sono classificati in diverse categorie a seconda del livello di rischio di abusi e di incidenza sulla vita dei cittadini. Chiaramente a maggiori livelli di rischio corrispondono maggiori limiti. Nel regolamento vengono ripresi molti aspetti del GDPR (Regolamento generale sulla protezione dei dati). Esso si applicherà a tutti i soggetti, pubblici e privati, che producono strumenti con tecnologia di intelligenza artificiale. Vi sono delle eccezioni all’applicazione della nuova disciplina: per scopi militari e di sicurezza nazionale, per scopi di ricerca e soprattutto per le persone fisiche che utilizzano i sistemi di AI per scopi personali, come già previsto in precedenza per il GDPR.
L’accordo introduce un nuovo sistema di governance a livello delle istituzioni europee.
Dal quadro brevemente delineato emergono delle riflessioni diffusamente condivise.
Quale primo aspetto, è evidente che la dimensione del fenomeno comporta la necessità di un intervento a livello internazionale, come quasi tutte le nuove sfide del mondo moderno. Tale esigenza può essere assolta solo attraverso accordi internazionali e sarebbe opportuno che oltre alla regolamentazione, anche la ricerca fosse svolta congiuntamente. Ciò si lega all’esigenza di regolamentazione anche interna del settore. La modalità più opportuna per evitare di frenare lo sviluppo tecnologico con la disomogeneità sarebbe quella del recepimento degli accordi internazionali con legge interna, o nel caso dell’Unione Europea l’adozione di ulteriori regolamenti, quindi l’imposizione di discipline omogenee e direttamente applicabili.
Nei vari ambiti considerati è emersa l’opinione diffusa della necessità di nuove autorità di settore, composte da esperti di diversi ambiti. Ciò consentirebbe la visione di un quadro completo delle esigenze da tutelare, che sappiano intervenire velocemente e indipendentemente dall’indirizzo politico contingente. Questo modello, delle cosiddette autorità amministrative indipendenti, è più risalente nel tempo nel mondo anglosassone ma ormai fa parte della realtà europea già da qualche decennio. Oltre alle funzioni di controllo, queste autorità garantirebbero competenza tecnica e capacità di intervenire velocemente nei settori specifici, integrando la disciplina generale posta a livello statale o internazionale. Inoltre esse agevolerebbero la formazione di un quadro più comprensibile e fornirebbero risposte più rapide alle imprese, garantendo una dimensione collaborativa tra privati e autorità, atta a favorire lo sviluppo del settore.
Quale ultimo aspetto, più specifico, è stata riconosciuta generalmente l’esigenza di distinguere diversi livelli di rischio per le differenti tipologie di intelligenza artificiale. In questo modo si potrà evitare di ingessare le funzioni meno “pericolose”, che con ogni probabilità saranno sempre più presenti nella quotidianità della popolazione.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0