In tempi recenti, l’impiego crescente dell’intelligenza artificiale nei conflitti armati sta generando preoccupazioni etiche e legali. Dai droni autonomi ai sistemi di pianificazione militare, l’IA sta rivoluzionando le strategie belliche. Tuttavia, l’importanza del controllo umano nell’uso di tali tecnologie è fondamentale per evitare gravi conseguenze per i civili. La recente condanna dell’ONU dell’impiego dell’IA da parte di Israele nella Striscia di Gaza evidenzia l’urgenza di regolamentare l’uso responsabile dell’IA nei conflitti armati. La Martens Clause teorizzata nel contesto del diritto internazionale umanitario richiede oggi più che mai il rispetto dei principi umanitari e della coscienza pubblica, necessitando di un coinvolgimento umano nel processo decisionale automatizzato per garantire la pace e la sicurezza internazionale.
Negli ultimi mesi si è assistito ad un impiego sempre più diffuso dell’IA nei conflitti armati (ne abbiamo già parlato QUI, QUI e QUI), tanto nel conflitto israelo-palestinese quanto nello scontro russo-ucraino.
A ragion del vero, sebbene in forme prelusive rispetto a quelle odierne, l’impiego della tecnologia nei conflitti armati può essere ricordato con riferimento ad episodi risalenti. Tecnologie avanzate sono state utilizzate per la sorveglianza, il monitoraggio e la pianificazione delle operazioni durante la Guerra del Golfo del 1991. E un punto di svolta significativo è stato segnato, poi, dall’impiego dell’IA nell’operazione “Paece Storm” in Libia contro le forze affiliate ad Haftar, quando un drone autonomo ha individuato e attaccato bersagli senza alcun intervento umano per la prima volta nella storia.
In ogni caso, è inevitabile riconoscere la crescente pervasività dei sistemi di IA nei conflitti armati in tempi recenti. Basti qui menzionare l’impiego che ne viene attualmente fatto dalle Forze di Difesa Israeliane (IDF) nella Striscia di Gaza, le quali, grazie a un database fondato sull’intelligenza artificiale denominato Lavender, avrebbero recentemente identificato 37.000 potenziali bersagli. Già nel 2023, inoltre, le stesse IDF avevano affermato di impiegare un sistema di IA denominato Gospel, capace di produrre raccomandazioni automatizzate per individuare obiettivi strategici, come abitazioni private di individui sospettati di operare per Hamas o la Jihad islamica. Il sistema Gospel, peraltro, era già stato impiegato dai soldati dell’Unità 8200 del Corpo dei servizi segreti israeliani, unitamente a programmi come Alchemist e Depth of Wisdom, durante la c.d. Operazione Guardiani delle Mura (Guardians of the Wall), nel 2021. L’elaborazione di questi sistemi, nella specie, è stata possibile grazie alla grande quantità di dati grezzi che le IDF hanno raccolto tramite intercettazioni (indagini SIGINT o Signals Intelligence), impiego di mezzi visivi (indagini VISINT o visual intelligence) e altro ancora. Così facendo le IDF, ad oggi, hanno una grande quantità di dati grezzi che vengono analizzati e utilizzati per individuare possibili target. E ancora, terreno di sperimentazione per testare l’applicazione dell’IA nel contesto bellico è anche il conflitto russo-ucraino, che ha visto l’invio da parte degli Stati Uniti dei Fortem DroneHunter F700 Interceptor – droni completamente automatizzati che, senza alcun intervento umano, possono individuare, riconoscere e sopprimere droni nemici.
Gli esempi appena richiamati permettono di definire la potenziale portata applicativa dell’IA nei conflitti armati in costanza con quanto teorizzato dal Comitato Internazionale della Croce Rossa (CICR). Nella specie, il CICR ha evidenziato come ambiti critici dell’integrazione dell’IA in sede bellica includano tanto l’impiego di sistemi d’arma autonomi (in inglese, autonomous weapon systems) quanto l’integrazione dell’IA in supporto alle decisioni tattico-strategiche militari.
I sistemi d’arma autonomi possono essere definiti come sistemi capaci di selezionare e attaccare bersagli senza intervento umano. Nel campo della pianificazione militare, invece, l’IA e, nello specifico, gli algoritmi predittivi vengono impiegati per ridurre i tempi e aumentare la qualità delle decisioni tramite l’automatizzazione di compiti manuali e l’analisi di grandi quantità di dati. Tuttavia, è fondamentale essere consapevoli dei bias che l’IA può presentare, sia per via del suo processo di apprendimento basato su dati passati, sia per i suoi presupposti impliciti. Per questa ragione, l’intervento umano e informato rimane ad oggi ancora imprescindibile.
Come comprensibile, l’impiego dell’IA nei contesti bellici solleva diversi dilemmi dal punto di vista etico e legale. Secondo il diritto internazionale umanitario, infatti, le parti in conflitto devono distinguere tra civili e obiettivi militari. Tale distinzione è di solito auto-evidente nei conflitti fisici, ma la guerra digitale rischia di offuscare questa linea. Anche per questa ragione, l’ONU ha di recente fermamente condannato l’impiego dell’IA da parte di Israele nella Striscia di Gaza, dove più di 15.000 morti (quasi la metà di tutte le morti civili finora) sono avvenute durante le prime sei settimane successive al 7 ottobre 2024, quando i sistemi di intelligenza artificiale sembrano essere stati ampiamente utilizzati per la selezione dei bersagli.
Alla luce di quanto illustrato, ben si comprende perché il CICR abbia sottolineato che la prospettiva di attacchi senza controllo umano e i rischi per i civili richiedono una regolamentazione precisa e un coinvolgimento umano nel processo decisionale, affinché l’IA sia utilizzata responsabilmente per la pace e la sicurezza internazionale. Nella specie, anche dinanzi all’inevitabile implementazione dell’intelligenza artificiale nei conflitti armati, andrà sempre rispettata la c.d. Martens Clause (o Clausola di Martens), che richiede l’osservanza di principi di umanità e coscienza pubblica così come indicato nell’articolo 1(2) del I Protocollo Addizionale e nel Preambolo del II Protocollo Addizionale delle Convenzioni di Ginevra.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0
Foto: US Department of Defense / Sgt. Cory D. Payne, pubblico dominio