Regolare l’intelligenza artificiale a livello globale: dopo l’Europa, è la volta di Stati Uniti e Regno Unito?

Il 1° aprile 2024, gli Stati Uniti e il Regno Unito hanno firmato un memorandum of understanding sull’intelligenza artificiale: esso costituisce il primo accordo bilaterale al mondo relativo alla valutazione e allo studio dei rischi connessi all’intelligenza artificiale.

Il contenuto del memorandum – il cui testo non sembra essere stato ancora divulgato nella sua interezza e i cui contenuti più importanti sono stati riportati da testate giornalistiche e dai siti delle istituzioni coinvolte – può riassumersi come segue.

Stati Uniti e Regno Unito, in forza dell’accordo, collaboreranno mettendo a reciproca disposizione le proprie conoscenze scientifiche, al fine di valutare e testare l’implementazione di modelli di intelligenza artificiale sicuri. Nello specifico, lo US AI Safety Institute e l’istituto omologo britannico lavoreranno in modo congiunto, condividendo informazioni relative ai possibili rischi associati ai modelli di IA e alla loro sicurezza, in modo da sviluppare alcuni approcci metodologici volti ad affrontarli e, di conseguenza, a limitarli. Tra gli obiettivi posti figura quello, particolarmente ambizioso, di eseguire almeno un test congiunto su un modello di intelligenza artificiale accessibile al pubblico; al contempo verranno organizzati secondment tra i due istituti.

Nel panorama statunitense, l’accordo si inserisce nel filone di alcuni interventi di carattere normativo che si sono susseguiti nell’ultimo periodo. Tra questi, può senz’altro menzionarsi l’Executive Order del Presidente Biden Safe, Secure and Trustworthy Development and Use of Artificiale Intelligence del 30 ottobre 2023, che tra i propri principi ispiratori prevede quello per cui “Artificial Intelligence must be safe and secure”. Non mancano poi interventi a livello federale ancora in corso di discussione: tra tutti, l’Algorithmic Accountability Act, volto ad introdurre l’impact assessment di varie tecnologie digitali (inclusa l’intelligenza artificiale), per misurarne eventuali effetti negativi e porvi rimedio.

Quanto invece al Regno Unito, si può rilevare come, allo stato attuale, l’uso dell’intelligenza artificiale non sia ancora regolamentato. Nel marzo 2023, il Secretary of State for Science, Innovation and Technology inglese ha presentato al Parlamento un White Paper – sottoposto a consultazione – sull’intelligenza artificiale. Nel documento, che riconosce le enormi potenzialità dell’intelligenza artificiale in vari settori, si pone l’accento sulla necessità di arginare i possibili rischi ad essa connessi, come quelli per la protezione dei diritti umani (generati ad esempio da deepfake); per la privacy; per la sicurezza e per la salute delle persone.

L’accordo tra gli Stati Uniti e il Regno Unito – così come le iniziative appena menzionate – rappresenta dunque un ulteriore tassello della “corsa alla regolazione” dell’intelligenza artificiale. L’esempio più importante, in tal senso, è rappresentato proprio dall’Artificial Intelligence Act, il primo Regolamento europeo sull’intelligenza artificiale, approvato in via definitiva il 13 marzo 2024 (in questo Osservatorio, se n’è parlato QUI).

Ciò porta a due considerazioni.

La prima. Seppur con alcune differenze (ad oggi, come anticipato, Stati Uniti e Regno Unito non hanno provveduto a regolamentare in modo compiuto l’utilizzo dell’intelligenza artificiale, obiettivo raggiunto invece dall’Unione Europea), l’approccio regolatorio europeo da un lato e quello statunitense e inglese dall’altro sembrano da qualche tempo convergere sotto un profilo sostanziale.

È una regolazione che appare, a livello globale, sempre più risk-based: volta, cioè, a regolamentare l’intelligenza artificiale tenendo conto dei suoi possibili rischi. Certo, il Regolamento europeo, nel prevedere regimi giuridici differenziati in considerazione proprio del rischio associato a determinati sistemi di intelligenza artificiale, ha il merito di individuare in modo puntuale i sistemi considerati a rischio inaccettabile (e dunque vietati), nonché un elenco di sistemi di IA considerati ad alto rischio, con regole specifiche per i sistemi general purpose (si pensi all’ormai notissimo ChatGPT: in questo Osservatorio ne abbiamo parlato, ad esempio, QUI, QUI, QUI e QUI).

Di tutto ciò, non pare esservi invece traccia nel memorandum USA-UK, nella misura in cui non è noto, ad esempio, quali saranno i sistemi IA oggetto di studio e di test, né se ciò porterà allo sviluppo di future regole.

Quanto alla seconda considerazione: l’approccio risk based alla regolazione dell’intelligenza artificiale può davvero rappresentare una soluzione per tutti i problemi che affliggono questi sistemi? Di recente, esso è stato criticato, dal momento che una regolazione di questo tipo potrebbe basarsi su utilizzi pregressi, senza tenere conto di futuri sviluppi dell’intelligenza artificiale, creando così un falso senso di sicurezza nei privati.

In conclusione, l’intelligenza artificiale sembra progredire a livelli esponenziali: ciò rappresenta un cambiamento epocale e, al contempo, un rischio per i diritti fondamentali (come la salute e la privacy). Riuscirà la regolazione a “tenerle testa”?

*Le opinioni espresse nel presente lavoro sono attribuibili esclusivamente all’autrice e non impegnano l’Istituzione di appartenenza.

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0