Durante la guerra fredda, furono gli scienziati a mettere in guardia sui rischi e gli effetti di un conflitto nucleare e a spingere per i Trattati di non proliferazione. Ora un libro collettivo di scienziati cerca di fare lo stesso sull’intelligenza artificiale applicata alle armi.
Nelle scienze esatte, il passo che separava lo studio dei sistemi fisici complessi da quello della IA si è dimostrato molto breve. Più lungo, ma prevedibilmente percorribile in un futuro prossimo, è il cammino verso applicazioni utili per l’umanità, dalla scoperta di nuove terapie fino alla guida automatica delle automobili. Il percorso è più accidentato (ma viene perseguìto nei laboratori delle maggiori potenze senza badare a spese) quando i sistemi complessi e la IA vengono studiati per fini non scientifici bensì strategici: non per creare ma per neutralizzare, non per promuovere ciò che ci può servire ma per interdire ciò che temiamo ci possa minacciare. Un esempio tanto attuale quanto drammatico prende corpo quando dal dominio della vita, della salute e del benessere morale e materiale, così come della produzione intellettuale e creativa – in una parola dal dominio della pace – ci trasferiamo nel dominio della guerra, secondo processi incrementali che vengono efficacemente descritti in questo volume.
È dalla rivoluzione industriale che il combattimento si fonda in misura crescente sul disegno, sulla fabbricazione e sul dispiegamento di armamenti sempre più sofisticati. In questo quadro, un autentico breakthrough, un salto di qualità che potrebbe cambiare i connotati dei conflitti è rappresentato dalle armi letali autonome LAWS, cioè da sistemi dotati di una IA in grado di “ragionare” e agire in assenza dell’uomo che li ha “addestrati”. Come si evince nel capitolo 1, l’intervento di qualcuno o di qualcosa in grado di farci vincere la guerra senza farci morire in battaglia è un sogno antico quanto l’uomo storico (quello cioè di cui abbiamo tracce documentate). Ai nostri giorni, però, questo sogno può trasformarsi in una realtà da incubo.
I più recenti progressi nella IA convergono nel conferire alle macchine, tanto civili quanto militari, una crescente indipendenza in grado di affrancarle dal controllo diretto dell’uomo. In particolare, in quella frontiera avanzata che è “l’arte” della guerra, si sta progredendo dal controllo umano diretto (man-in-the-loop), al controllo umano indiretto (man-on-the-loop) fino all’incombente – a meno che non venga bandito prima – man-off-the-loop: ovvero alla completa autonomia della macchina dal controllo umano. Come nel capitolo 2 ammoniscono Diego Latella, Gian Piero Siroli e Guglielmo Tamburrini, grazie al progresso degli algoritmi, le macchine si stanno mostrando capaci di apprendere autonomamente e senza intervento umano. Nel capitolo 3 Siroli ricorda che, nel caso dei sistemi d’arma autonomi, i loro tempi di risposta sarebbero ben più repentini di quelli umani, abbattendo i tempi del ciclo osservazione-decisione-azione, cruciale nelle operazioni militari. Ne conseguirebbero modalità di ingaggio caratterizzate da ritmi “disumani”, come già accade per certi tipi di droni nel caso di sciami (swarms) di sistemi coordinati tra loro, come ricostruiscono Michael Malinconi e Juan Carlos Rossi nel capitolo 4.
Sistemi fisici complessi, in cui numerose unità indipendenti interagiscono tra di loro in modo non necessariamente “ordinato” e tuttavia altamente funzionale, sono stati osservati nei comportamenti di alcune specie animali, come gli sciami di insetti oppure gli stormi di storni studiati da Giorgio Parisi (In un volo di storni. Le meraviglie dei sistemi complessi, Rizzoli, Milano, 2021). Nel frattempo, invece di funzioni che sarebbero ben più auspicabili, questi sistemi hanno ispirato sofisticate applicazioni di IA nell’ambito delle armi semi-autonome. Si è pervenuti così alla progettazione e produzione di microelicotteri armati a pilotaggio remoto che, guidati da algoritmi e dotati di GPS, processori e radio, riescono a volare senza scontrarsi, stazionare in aria aspettando il proprio turno per inserirsi nei ristretti spazi disponibili e da lì attaccare un nemico, proprio come farebbe uno sciame di api o di vespe contro un intruso. È questo il caso del piccolo velivolo senza pilota Kargu prodotto in Turchia (4 pale rotanti in un chilo e mezzo di peso), capace di raggiungere e colpire una postazione militare o una nave, distruggendole.
Esiste tuttavia un parziale motivo di ottimismo nei confronti del passaggio da comportamenti automatici a comportamenti autonomi e, di conseguenza, nei confronti di scenari di guerra inimmaginabili appena una generazione fa. Paradossalmente, esso deriva dagli ostacoli tecnici che, ancora oggi, si frappongono alla completa autonomia di macchine da guerra “intelligenti”. Come ben si comprende dalla lettura del Volume, alcuni di questi ostacoli sono tali da convincere gli stessi responsabili della ricerca e sviluppo della IA applicata al militare a dilazionare l’avvento di un campo di battaglia totalmente autonomizzato. Ciò almeno finché non esisteranno prove concrete che le nuove tecnologie non generino, nella loro gestione, disastri capaci di ritorcersi sugli stessi attori che le hanno attivate.
In analogia a quanto avviene per le applicazioni civili, ma in misura incomparabilmente superiore, è da notare che nella IA è cruciale il problema della distinzione. Infatti, a differenza di una situazione di pace, l’ambiente bellico è, oltre che massimamente turbolento, anche intenzionalmente ingannevole. Niente a che vedere non soltanto con il mondo bene ordinato, ripetitivo e privo di sorprese di una catena di montaggio robotizzata di un’industria civile ma neppure, domani, con il traffico di una metropoli dove i veicoli si muovano mediante la guida automatica.
Come si è dovuto constatare in questi tempi di drammatici conflitti quali l’invasione russa dell’Ucraina, quando si parla della fog of war, o “nebbia della guerra”, ci si riferisce a un ambiente caratterizzato da una massima intensità di imprevisti, di origine per lo più intenzionale, a cominciare dall’intrinseca tendenza all’inganno da parte del nemico. Come spiega Guglielmo Tamburrini nel capitolo 5, sulla base delle attuali tecnologie della IA, i problemi di discriminazione percettiva indotti da contesti non routinari impediscono una soluzione tecnologica soddisfacente. Test eseguiti su sistemi percettivi della IA formati da reti neurali profonde mostrano il fallimento della IA nel distinguere tra loro – a fronte delle minime perturbazioni introdotte nel corso di un adversial testing (percepite invece dall’occhio umano) – oggetti tanto diversi tra loro quali una tartaruga e un fucile.
Sarebbe drammaticamente riduttivo sperare che uno scenario infausto come l’abdicazione a pensare e decidere su aspetti costitutivi della condizione umana quali la vita e la morte possa essere evitato unicamente grazie a difficoltà di ordine tecnologico e operativo, in quanto è altamente probabile che, prima o poi, esse saranno destinate a essere superate. Piuttosto, una grande responsabilità spetta alla comunità dei ricercatori delle scienze “esatte”, tanto quanto ai ricercatori sociali, in vista delle sinergie che gli uni e gli altri possono sviluppare collaborando tra loro, come hanno inteso fare in questo libro. Da un lato il dibattito internazionale sulle LAWS ha nelle comunità scientifiche di riferimento un inesauribile e perennemente aggiornato patrimonio di conoscenze, metodi e risultati (ancora Tamburrini nel capitolo 9).
Nell’esperienza di un’altra fatale tecnologia come quella nucleare, ai tempi della guerra fredda furono gli scienziati – soprattutto ma non unicamente fisici – a svolgere un ruolo cruciale nella prevenzione della catastrofe. Infatti, le loro analisi furono decisive nel mettere in guardia i rispettivi governi circa le conseguenze irreversibili di un conflitto atomico. Inoltre, grazie ai rapporti di colleganza stabiliti negli anni tra scienziati americani e sovietici (emblematico il caso del gruppo Pugwash), i ricercatori consolidarono un network poi rivelatosi prezioso quando negli anni Ottanta del Ventesimo secolo furono negoziati e sottoscritti gli accordi sul taglio degli armamenti nucleari. Uno scenario simile non è impossibile in riferimento alle armi semiautonome oggi e autonome domani, se alla pressione esercitata sui governi dagli esperti si aggiungerà quella dei comuni cittadini, come mostrano i dati analizzati da Francesca Farruggia nei capitoli 6 e 7. In Italia e pressoché ovunque nel mondo, l’orientamento popolare è verso chiare e sostanziali limitazioni nei confronti di queste pericolose tecnologie. Spetterà infine al diritto internazionale – argomentano nel capitolo 8 Sofia Bertieri e Adriano Iaria – definire i termini del controllo degli armamenti semiautonomi e autonomi, e alla diplomazia implementare le iniziative per una prevenzione della proliferazione degli armamenti autonomi.
Se gli accordi internazionali e i provvedimenti legislativi sono una prerogativa delle istituzioni politiche, la spinta ad adottarli può provenire unicamente dalla società civile. La competenza e la capacità comunicativa delle comunità scientifiche – mostrano Barbara Gallo e Maurizio Simoncelli nel capitolo 10 – rappresentano la condizione necessaria affinché si crei una simile spinta; essa tuttavia si rivela sufficiente unicamente se raggiunge e mobilita le coscienze di strati sempre più ampi della popolazione. All’indomani della fine della guerra mondiale e dell’irruzione sulla scena internazionale dell’arma atomica nella tragica ecatombe di Hiroshima e Nagasaki, Albert Einstein lanciava un appello agli scienziati perché si assumessero la responsabilità di informare i concittadini su questioni che sono, diceva, di vita o di morte. Einstein paragonava alla scoperta del fuoco l’introduzione della tecnologia atomica. Di fronte all’applicazione a scopi bellici di innovazioni di questa portata, il grande scienziato osservava che «non esiste possibilità di controllo se non mediante il conseguimento della comprensione e la pressione [esercitata] da parte dei popoli del mondo» (A. Einstein, lettera-appello inviata da Princeton il 22 gennaio 1947).
L’avvento dell’intelligenza artificiale è oggi un passaggio epocale che ha molti punti di contatto con un evento altrettanto ambivalente quale la liberazione dell’energia nucleare indotta dall’uomo. Adesso come allora, è compito degli scienziati indicare le vie per prevenire i rischi delle scoperte, mentre lo è dell’opinione pubblica convincere i governi ad intraprenderle.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale