Il Parlamento Europeo ha recentemente approvato una risoluzione sul diritto internazionale e l’impiego dell’intelligenza artificiale a scopi civili e militari. Da quest’ultimo punto di vista, dal 2016 la comunità internazionale si sta interrogando sulle tecnologie emergenti nell’area dei sistemi d’arma autonomi letali. All’interno di questo dibattito l’Italia ha ribadito a più riprese i princìpi fondamentali che dovranno guidare qualsiasi impiego dell’intelligenza artificiale a scopi militari.
Lo scorso 20 gennaio il Parlamento Europeo ha approvato la risoluzione «Intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale». Tale risoluzione avvia una discussione all’interno dell’Unione sulle implicazioni dell’intelligenza artificiale nel campo militare che erano state volutamente escluse dal Libro Bianco della Commissione Europea sull’Intelligenza Artificiale. Tale dibattito a livello europeo, seppur tardivo rispetto ad altre iniziative internazionali, apre una serie di interrogativi sul ruolo che l’Unione dovrebbe svolgere nella governance dell’IA militare e che abbiamo già affrontato qui.
Già nel 2016, durante la quinta conferenza di revisione della Convenzione su certe armi convenzionali (CCW) – di cui l’Italia è parte – è stato istituito un Gruppo di Esperti Governativi sulle tecnologie emergenti nell’area dei sistemi d’arma autonomi letali (LAWS). Dal 1980, anno in cui la CCW è stata adottata, questa convenzione ha rappresentato la cornice giuridica più promettente per mettere al bando armi considerate eccessivamente dannose o aventi effetti indiscriminati con l’approvazione di cinque protocolli addizionali tutti ratificati dal nostro Paese.
Ed è all’interno di questo forum di discussione che il governo italiano, attraverso il Ministero degli Esteri e della Cooperazione Internazionale, ha avuto modo in più occasioni di esprimere la sua posizione circa lo sviluppo e utilizzo di sistemi d’arma autonomi che implementano l’intelligenza artificiale.
Ad oggi non esiste una definizione generalmente riconosciuta dalla comunità internazionale su cosa sia un sistema d’arma autonomo; infatti, il tipo e il grado d’autonomia del sistema d’arma, nonché il livello di supervisione umana, rappresentano le principali questioni su cui non si riesce a giungere ad una definizione condivisa.
Nel quadro dei lavori del gruppo di esperti governativi della CCW, l’Italia ha contribuito al dibattito normativo, sia negoziando con gli altri partner europei i contenuti degli interventi UE, sia esprimendo posizioni a titolo nazionale. In tale contesto, l’Italia ha anche enfatizzato la rilevanza di una piena applicazione dell’articolo 36 del I Protocollo Addizionale alle Convenzioni di Ginevra del 1949. La suddetta norma stabilisce che ogni Stato nello studio, messa a punto, acquisizione o adozione di una nuova arma ha l’obbligo di stabilire se il suo impiego non sia vietato dal diritto internazionale e in particolare dal diritto internazionale umanitario.
Tale formulazione impegna gli Stati ad una verifica legale del sistema d’arma ancor prima dell’avvio del procurement, potendo verificare la liceità di un sistema d’arma ab origine, sin dalla fase di progettazione. In Italia, la verifica riferita al rispetto del diritto internazionale umanitario, da parte di ogni sistema d’arma nella fase di studio, sviluppo, acquisizione o adozione è, inoltre, implementata dal Codice dell’Ordinamento Militare del 2010. Il processo di verifica si declina principalmente in un controllo condotto dal Ministero della Difesa in cooperazione con le Commissioni Difesa della Camera e del Senato, che hanno il compito di vagliare e deliberare qualsiasi spesa relativa allo studio, sviluppo, acquisizione e adozione di nuovi sistemi d’arma. In tal senso, assume un ruolo fondamentale il sindacato ispettivo parlamentare che attraverso atti, interrogazioni e interpellanze svolge una funzione di controllo sull’attività di procurement militare.
Nel corso dell’ultimo meeting del Gruppo di Esperti Governativi sui LAWS, tenutosi tra il 20 e il 21 agosto 2019, dopo una lunga fase di negoziazione, si è finalmente trovato il consenso su un rapporto finale che include inter alia la definizione di 11 princìpi guida nel campo dello sviluppo dei LAWS. A causa della pandemia da COVID-19, la Conferenza degli Stati parte alla CCW e il Gruppo di Esperti Governativi sui LAWS sono stati posticipati al 2021, sebbene gli Stati abbiano avviato alcune consultazioni informali per discutere i commenti formulati dai governi agli 11 princìpi guida.
Nei suoi commenti, l’Italia ha ribadito come il dialogo all’interno della CCW rappresenti il forum più appropriato per discutere le politiche e le pratiche nazionali sullo sviluppo e l’uso di armi con funzioni autonome e l’importanza del già citato articolo 36 nello sviluppo, dispiegamento e impiego di qualsiasi sistema d’arma. Tale dialogo, oltre a superare quel generale scetticismo tra gli Stati rei di perseguire la sicurezza nazionale e i soli interessi economici nello sviluppo di nuove tecnologie, potrebbe contribuire a creare fiducia tra gli Stati sul continuo sforzo di conformare al diritto internazionale umanitario lo sviluppo di sistemi d’arma emergenti.
Infine, l’Italia ha posto particolare enfasi sulla necessità di garantire un controllo umano significativo a qualsiasi sistema d’arma autonomo con il duplice scopo di 1) garantire che soltanto gli esseri umani possano essere responsabili di un’operazione militare; e 2) ribadire che soltanto un essere umano possa effettuare valutazioni giuridiche circa il rispetto del diritto internazionale umanitario e, in particolare, dei princìpi di distinzione, proporzionalità e precauzione nell’attacco. Alla luce di tali considerazioni, è fondamentale che sia un essere umano a validare un obiettivo militare; una volta selezionato, il raggio d’azione del sistema d’arma autonomo deve inoltre essere limitato nel tempo e nello spazio, in modo da permettere all’operatore umano di agire, avendo sempre un controllo significativo sul sistema d’arma.
Il dibattito sui LAWS, insieme a quello condotto in parallelo sulla militarizzazione dello spazio cibernetico, rappresenta dunque una delle sfide giuridiche più rilevanti imposte dalle nuove tecnologie alla comunità internazionale. Un dibattito che impone la coniugazione di elementi etici e giuridici con il progresso scientifico e la sicurezza nazionale. Se è vero che il progresso della scienza sia inevitabile, è pur vero che applicare i progressi scientifici al campo militare non sia inevitabile, ma una scelta. E allora, questa scelta non potrà che vedere i sistemi d’arma come oggetto di diritto e non come soggetti giuridici, alla stregua dell’essere umano.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale