Tra il vero e il falso del prossimo futuro: è sempre una questione di fiducia
Le tecnologie digitali in continuo sviluppo stanno velocemente conducendo l’umanità a confrontarsi con nuovi problemi ed esigenze di protezione da rischi fino a pochi anni fa del tutto sconosciuti. Tra questi, quello di poter essere indotti ad una percezione distorta della realtà a causa di una sua rappresentazione artefatta e alterata proprio attraverso sistemi di intelligenza artificiale di ultima generazione. Sistemi che non si limitano più ad automatizzare una attività umana ma che si spingono fino al punto di creare sul web un ambiente realistico, ma non autentico, in cui i diritti della persona umana possono incorrere nel pericolo di rimanere disattesi, usurpati o comunque compressi.
La società umana, fin dalla notte dei tempi, sperimenta gli effetti della difficile coesistenza del vero e del falso al suo interno. L’arte e la cultura, la moneta, o anche documentazione dal più diverso contenuto, rappresentano gli esempi più immediati di come l’essere umano abbia nei secoli non solo ricercato la verità, nei campi della filosofia (con origini antichissime) e della scienza, ma anche tentato di falsificare la realtà, ingannando così il suo prossimo per guadagno, per truffa o comunque per un interesse personale spesso e volentieri tutt’altro che nobile. Si potrebbe continuare con la musica, con gli alimenti, con i farmaci, con l’abbigliamento e con moltissimi altri prodotti d’uso quotidiano, ma non autentici, con cui, consapevolmente o meno, ciascuno di noi rischia ogni giorno di entrare in contatto. Affermare, allora, che il funzionamento e la sopravvivenza di parte della società e dell’economia globale siano basati in maniera non trascurabile sulla menzogna – al di là della forza figurativa dell’espressione – non appare un errore.
In questo contesto, la trasformazione avvenuta e tuttora in corso a livello mondiale nel settore del digitale e delle sue molteplici applicazioni non ha fatto altro che complicare le cose. Ogni settimana, da circa quattro anni a questa parte, l’Osservatorio dell’IRPA sullo Stato digitale ci mostra il grande impatto delle nuove tecnologie nei più diversi settori dell’attività umana. Oggi, la scena globale appare decisamente dominata dalle innovazioni legate all’introduzione dei sistemi di cd. “intelligenza artificiale”. Dalla prima timida versione di ChatGPT rilasciata da OpenAI, inizialmente appannaggio di sviluppatori e “nerd” ma oggi pienamente fruibile dalle masse dei navigatori online, passando per le sperimentazioni sul tema di altri grandi players (Google con Bard, Microsoft con Copilot, Bedrock di Amazon, Claude di Anthropic, ma più di recente anche l’Università La Sapienza di Roma e il CNR hanno avviato Minerva, un progetto di AI interamente addestrata in lingua italiana), termini come “machine learning”, “deep learning” e “AI” sono ormai di uso pressoché comune nelle società più sviluppate.
Conosciute ai più, quantomeno in termini generali, sono anche le capacità computazionali di questi strumenti: dalla redazione di testi complessi, allo sviluppo di business plan e di modelli matematici dalle svariate applicazioni, fino alla capacità di fungere da interlocutore e da “risponditore” quasi onnisciente attraverso una interfaccia grafica di facilissimo utilizzo accessibile con un clic. È l’intelligenza artificiale generativa (GenAI), ovvero una tipologia di AI che sfrutta l’elevata disponibilità di dati analizzabili e l’applicazione di modelli statistici per creare nuovi contenuti fruibili nelle più varie forme: audio, testo, grafica, immagini e anche video.
Altrettanto rilevanti e preoccupanti sono gli utilizzi di questa tecnologia per alterare la realtà e incidere anche sul pensiero delle masse attraverso la diffusione virale dei contenuti, a sua volta possibile grazie ai cd. social network. Il bello e il brutto degli strumenti digitali, infatti, è la loro relativa facilità di reciproca integrazione, tramite la quale, ad esempio, un set di dati prodotto mediante la tecnologia AI può raggiungere in tempi brevissimi – e in forme solo blandamente controllate – un elevato numero di utilizzatori di una qualsiasi piattaforma social. Il rapporto tra intelligenza artificiale generativa e disinformazione delle masse, del resto, è stato studiato in ambito UE, con la produzione a febbraio 2024 di un apposito white paper che mette bene in guardia la società moderna dai possibili utilizzi distorti della tecnologia generativa, ad esempio con riferimento alla manipolazione dei processi democratici che si svolgono all’interno dei singoli Stati nazionali e nella delicata prospettiva delle votazioni elettorali.
Non mancano, nella storia recente, episodi in cui l’AI generativa è stata impiegata per incidere sulla formazione del consenso politico o sugli interessi nazionali, attraverso la produzione di contenuti falsi. Si tratta del cd. deepfake: a marzo 2022, ad esempio, è stato diffuso online un video in cui il presidente ucraino Zelensky invita il suo popolo ad arrendersi alla Russia, a dicembre 2023 è stata la volta invece della presidente della Repubblica della Moldova, Maia Sandu, riprodotta in abiti islamici mentre annuncia le dimissioni e suggerisce al suo popolo di votare per un candidato filo-russo, diverse poi sono le immagini fotografiche alterate che circolano online con riferimento al conflitto israelo-palestinese. A febbraio 2024, invece, i sostenitori dell’ex primo ministro pakistano Imran Khan, da tempo costretto in carcere dai suoi avversari politici, hanno utilizzato un deepfake del proprio leader per celebrare la vittoria nelle elezioni politiche contro i partiti sostenuti dall’esercito nazionale.
Come e cosa fare per intervenire e tentare di arginare la diffusione del deepfake? Che rischi ci sono per le imminenti elezioni europee e per quelle in programma a fine anno negli Stati Uniti? L’esperienza di Cambridge Analytica e dei dati di profilazione estratti da Facebook per orientare le votazioni USA del 2016 rimane una pesante testimonianza della gravità del tema e rappresenta un costante monito a prendere provvedimenti urgenti. Negli USA, a ottobre 2023, il presidente Biden ha infatti adottato l’Executive Order in materia di intelligenza artificiale, con l’obiettivo, tra l’altro, di proteggere gli statunitensi “from AI-enabled fraud and deception by establishing standards and best practices for detecting AI-generated content and authenticating official content”. Sono recentissime, poi, l’approvazione dell’AI Act europeo (di cui si è parlato nel primo degli “Orizzonti” del rinnovato Osservatorio) e l’introduzione del Digital Services Act (DSA), il quale coinvolge e responsabilizza le grandi piattaforme nella lotta alla disinformazione (anche) politica.
La soluzione finora prospettata e impiegata in concreto è, chiaramente, di tipo tecnologico. Si tratta di software (tra questi, alcune iniziative sono finanziate dalla UE: vera.ai, ai4trust, vigilantproject.eu, InVID-WeVerify) che cercano, attraverso algoritmi “buoni”, di smascherare il contenuto fake andando ad analizzare minuziosamente il singolo file, alla ricerca di qualche incoerenza o anomalia, ma sono allo studio anche piattaforme dedicate ai cittadini per fornire loro strumenti di approccio critico ai contenuti online (in questo caso, il progetto UE è Titan). Dagli esempi riportati, ad essere messa in pericolo è la relazione tra governati e governanti e quello che si pone è, in altri termini, un problema di fiducia (ce lo dice anche il Global risks report 2024 del WEF).
Se l’informazione online – che, oggi, è la forma prevalente – non è più affidabile, e la disinformazione dilaga, allora una possibile reazione è la disaffezione degli elettori e la conseguente compressione indiretta della democrazia. Ancora peggiore è il pericolo della formazione di un consenso elettorale o l’adozione di scelte politiche e governative che siano basati su dati non veritieri. Vale allora la pena pensare ad una diversa prospettiva, che in un certo senso ribalta l’approccio difensivo di ex post detection finora battuto nella lotta al deepfake e si concentra, invece, su una sorta di etichettatura dei contenuti supportata dalle tecnologie a registro distribuito (cd. DLT). Queste tecnologie, tra cui la blockchain è sicuramente quella più nota per via del suo iniziale utilizzo nel settore crypto (ma di una sua applicazione ai processi di votazione elettorale negli USA e dell’attitudine democratica dello strumento se ne è già parlato sull’Osservatorio), fanno della fiducia nel sistema e nella distribuzione diffusa, validata e crittografata dei dati il perno del loro funzionamento. Esse, infatti, consentono al fruitore del contenuto di verificare ex ante la genuinità dell’informazione e la sua provenienza, mediante la consultazione di un registro informatico che tiene una traccia immutabile di ogni variazione apportata (anche il World Economic Forum se ne è occupato, evidenziando comunque la necessità di un intenso sviluppo di queste applicazioni per poter essere effettivamente impiegate).
Rimane sullo sfondo la questione della relazione di fiducia – che vale per le applicazioni democratiche ma che in fondo è trasversale per tutto ciò che accade e viene diffuso online – oramai messa in costante pericolo dalla diffusione del deepfake nell’attuale assenza di soluzioni immediate. Allo stato, quindi, il migliore approccio possibile verso la rappresentazione della realtà che viene offerta quotidianamente sul web sembra ancora essere quello critico, seguendo il vecchio adagio per cui “fidarsi è bene e non fidarsi è meglio”, come del resto già suggerisce di fare la Commissione nelle sue Linee guida della Commissione UE per la mitigazione dei rischi sistemici in vista delle prossime elezioni europee adottate a marzo 2024.
Il miglioramento dei processi e i connessi obiettivi di mitigare gli effetti negativi della diffusione del deepfake passano, pertanto, per una strategia sperimentale e per un approccio globale al problema. La blockchain può senz’altro rappresentare il mezzo tecnico per “notarizzare” i contenuti e quindi autenticarne la provenienza fin dalla loro messa in circolazione, ma l’implementazione di simili sistemi su larga scala – quantomeno europea, senza dimenticare però che la Rete non ha frontiere – richiederà uno sforzo economico, tecnologico e di formazione non indifferente, non immediato e non agevole. Ad essa potranno affiancarsi i modelli di watermarking cui già fa riferimento la UE con l’obiettivo di attenuare il rischio sistemico connesso alla fruizione dei servizi digitali, come pure l’applicazione di sistemi software di detection, che chiaramente però non sono disponibili su larga scala e non sembrano essere strumenti dedicati e fruibili dal comune cittadino “navigatore”.
Per questo motivo, non è possibile – e probabilmente non lo sarà nemmeno in futuro – prescindere da una responsabilizzazione diffusa degli utenti, attraverso campagne di sensibilizzazione rispetto alle insidie del web e, auspicabilmente, introducendo fin dalla scuola primaria programmi didattici in grado di formare adeguatamente le nuove generazioni rispetto ai dispositivi digitali, il cui utilizzo da parte dei giovani è sempre più precoce.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0
(credit image: http://www.budiey.com)