Un istituto internazionale indipendente sugli studi in materia di difesa, tecnologia e tutela della pace (SIPRI) ha recentemente diffuso un documento in cui vengono analizzate le prospettive in materia di un utilizzo etico dell’Intelligenza Artificiale in ambito militare. Nello studio ci si sofferma sulle effettive possibilità dell’Unione Europea sul punto, e su come questa possa porsi come principale produttrice di migliori pratiche internazionali.
L’intelligenza artificiale si pone come una delle prospettive più floride di sviluppo in numerosi campi, non da ultimo quello militare (si veda A. Renzi, Slaughterbots e il futuro della guerra automatizzata). Di recente lo Stockholm International Peace Research Institute (SIPRI), istituto indipendente dedicato alla ricerca sui conflitti, sul controllo degli armamenti e sul disarmo, ha diffuso un documento volto a ricostruire il ruolo che l’Unione Europea può ricoprire nell’utilizzo dell’intelligenza artificiale ad uso militare.
Il tema risulta di ampio interesse in Unione europea. Infatti, durante la Presidenza finlandese del Consiglio dell’UE nel 2019 diversi Stati membri hanno richiesto una maggiore collaborazione sul tema degli usi dell’IA per la difesa. Nel 2020 è intervenuto anche il Parlamento europeo, con una opinion del Committee on Foreign Affairs, sul ruolo che l’UE dovrebbe svolgere nella governance dell’IA militare.
Le ragioni di tale interesse sono da individuare nella volontà di pesare maggiormente nel dibattito globale sulla governance e sull’intelligenza artificiale, garantendo nel contempo che l’uso militare dell’IA si sviluppi sulla base di valori condivisi e etici.
Sul punto interviene anche l’ambizione dell’Unione di promuovere una maggiore interoperabilità tra le forze armate dei paesi membri e migliorare la collaborazione nella ricerca e nello sviluppo bellico. L’assenza di un esercito unitario, infatti, richiede un progressivo investimento in tecniche e strumenti di difesa condivisi, sia in termini strategici, che infrastrutturali.
La necessità è anche quella di impedire che nella competizione tra USA e Cina (e presumibilmente anche Russia) si inneschi una spirale distruttiva di sviluppo di armamenti privi di una pianificazione etica.
Tutto ciò può essere prevenuto proprio attraverso un’azione proattiva europea, in grado di guidare lo sviluppo delle AI militari e fornire un modello anche agli altri attori geopolitici. Un simile approccio potrebbe anche consentire il raggiungimento di una autonomia strategica e militare, grazie all’interoperabilità delle forze armate europee.
Una simile forma di collaborazione è auspicabile anche in considerazione delle ingenti risorse economiche necessarie per confrontarsi con gli investimenti di altri paesi nel settore militare. Infatti, la frammentazione della spesa militare per ogni Stato europeo – per quanto elevata – porta inevitabilmente ad un innalzamento dei costi. Lo sviluppo di metodologie ed infrastrutture condivise, dunque, sembra evidenziarsi come una necessità ineludibile.
Il report approfondisce anche le modalità di sviluppo di migliori pratiche di utilizzo. Tre sono le aree su cui concentrarsi: 1) rispetto della legalità; 2) etica di sviluppo; 3) sicurezza tecnica.
Con riferimento al primo punto, l’European Defence Agency è attualmente al lavoro sulla creazione di a) studi per risolvere le possibili differenze concettuali sull’IA; 2) una visione condivisa delle aree di applicazione del Piano di sviluppo delle capacità europee; 3) un piano d’azione per la collaborazione dell’UE sull’IA nella difesa (dicembre 2020).
Nonostante tali lavori non siano ancora pubblici, i ministri della difesa degli Stati membri dell’UE concordano sul fatto che il controllo dei sistemi autonomi dovrebbe rimanere nelle mani dell’essere umano.
La Commissione è intervenuta in tema di Intelligenza artificiale con un apposito libro bianco del 2020 (già analizzato da questo Osservatorio), in cui pur riferendosi alle applicazioni civili, evidenzia le basi su cui concentrarsi anche per gli sviluppi militari. Sul punto, la Commissione sottolinea la necessità di rispettare tutte le leggi e i regolamenti in vigore, compresa la Carta dei diritti fondamentali dell’UE, così come ribadisce l’inevitabile centralità dell’agire umano rispetto alla supervisione e all’uso dei sistemi di AI.
Assicurare un sostanziale rispetto dei diritti umani impone l’adozione di metodi di revisione legale di nuove armi, mezzi o metodologie belliche, con lo sviluppo di appropriate regole per l’uso di IA, nonché la formazione del personale su tali ambiti. Proprio queste, dunque, sono le prossime sfide che si pongono all’Unione europea. Laddove si raggiungano risultati effettivi su tali punti sarà possibile ottenere quel primato in materia di IA in grado di assicurare la leadership regolatoria.
Il rispetto dei diritti umani, comunque, dovrebbe spingere l’UE verso una IA “umano-centrica”, così da consentire che la decisione finale (e la correlata responsabilità) spetti all’uomo.
Ovviamente, trattandosi di un tema sensibile come quello militare, l’ultimo pilastro su cui fondare sviluppo e investimenti riguarda la sicurezza dell’infrastruttura, da intendersi anche quale corretto funzionamento, integrità e capacità di correzione del malfunzionamento.
Ciò che, dunque, appare chiaro dalla panoramica offerta dal report è proprio l’opportunità che l’IA sta fornendo al settore militare europeo e all’accrescimento delle politiche di difesa comuni dell’Unione, anche in una prospettiva di sfruttamento etico.