Come emerge dallo studio Automating Society Report redatto dall’organizzazione Algorithm Watch, molti Stati europei stanno sperimentando l’utilizzo di sistemi di intelligenza artificiale per la ricerca di frodi ed evasioni fiscali con risultati, in alcuni casi, apprezzabili. Non tutti gli algoritmi però sono uguali, e nemmeno lo sono le relative implicazioni in termini di tutela delle garanzie dei contribuenti coinvolti nel trattamento.
Nel rapporto Automating Society Report a cura dell’organizzazione Algorithm Watch (di cui si è già parlato nell’Osservatorio qui, qui e qui) sono documentate numerose iniziative degli Stati europei concernenti l’utilizzo dell’intelligenza artificiale in materia fiscale.
Tra i Paesi europei più all’avanguardia in questo campo si colloca proprio l’Italia. Nel 2019 l’Agenzia delle Entrate ha varato l’indice ISA (acronimo per “indice sintetico di affidabilità fiscale”) per incentivare l’assolvimento degli oneri tributari dei cittadini e per indirizzare l’attività di controllo dell’amministrazione (dell’indice ISA si è già parlato qui nell’Osservatorio).
Sviluppato da una società partecipata dal MEF e dalla Banca d’Italia, l’algoritmo fiscale italiano misura il ranking del contribuente verificando la coerenza della situazione reddituale con una serie di indici elaborati dall’Agenzia delle Entrate. A differenza di altri algoritmi fiscali utilizzati in Italia – tra cui l’evasometro anonimizzato e il Piano operativo “Frozen” dell’INPS – l’ISA non prevede alcun contraddittorio procedimentale con il contribuente risultato irregolare, non essendo consentito a quest’ultimo di dettagliare le circostanze del caso concreto (ad esempio periodi di interruzione del servizio per lavori, maternità etc.) che sono state alla base dell’anomalia reddituale riscontrata dall’algoritmo, ma soltanto contestarne successivamente gli esiti.
Un secondo elemento di criticità è rappresentato dal fatto che il programma – elaborato dalla società Soluzioni per il Sistema Economico (Sose), una società partecipata dal Ministero dell’Economia e delle Finanze e dalla Banca d’Italia – non è soggetto ad una regolamentazione specifica. Sino ad ora, la società che ne detiene il copyright si è opposta alla sua esibizione, rendendo difficile verificare le numerose incongruenze già riscontrate nel contesto del relativo utilizzo.
Nel Regno Unito l’HMRC (Her Majesty’s Revenue and Customs) ha introdotto nel 2012 un sistema chiamato Connect, il quale utilizza varie tipologie di big data (in particolare informazioni provenienti dalle transazioni con carta di pagamento, registri catastali, conti bancari nel Regno Unito e all’estero, piattaforme online, compresi i mercati, i servizi P2P e i social network) per identificare i profili di potenziali evasori fiscali. Combinati tra loro tali dati consentono di tracciare un profilo di reddito per ogni contribuente, sottoposto poi al confronto con il reddito dichiarato dallo stesso contribuente. Qualora dal confronto dovesse emergere una discrepanza significativa tra la situazione reddituale stimata da Connect e quella dichiarata dal contribuente, l’amministrazione fiscale può avviare ulteriori indagini.
Anche in Francia l’amministrazione fiscale sta sperimentando da tempo l’uso degli algoritmi per finalità di controllo fiscale. Sin dal 2014 è stato istituito il sistema di data mining CFVR (acronimo per “ciblage de la fraude et valorisation des requêtes”) che ricerca frodi ed errori nelle dichiarazioni dei redditi incrociando dati provenienti da banche dati pubbliche e private. Nel 2020 – come documentato sempre da Algorithm Watch – un terzo dei controlli fiscali sulle aziende hanno preso le mosse proprio dai dati di CFVR. C’è però anche da dire che solo una percentuale ridotta (tra il 10% ed il 30%) dei potenziali evasori segnalati da CFVR è stata poi sottoposta dagli ispettori ad un controllo fiscale vero e proprio. Il che vuol dire che – ed è un dato interessante, su cui si tornerà infra – che la gran parte delle correlazioni individuate dall’algoritmo non sono state ritenute conferenti e/o rilevanti dai funzionari.
Più di recente, l’amministrazione fiscale e doganale francese – in via sperimentale, per la durata di tre anni – è stata autorizzata a raccogliere ed elaborare, in via automatizzata, le informazioni pubblicate dagli utenti sui propri profili social (dell’algoritmo fiscale francese si è già parlato qui). Oggetto del trattamento automatizzato sono tutti i contenuti che l’utente abbia deliberatamente divulgato sui propri profili social, con la sola esclusione, quindi, dei contenuti accessibili solo dopo l’inserimento di una password o un’apposita registrazione. A differenza dell’indice ISA, è escluso qualsivoglia automatismo tra gli esiti del controllo automatizzato ed il provvedimento amministrativo finale: le evidenze algoritmiche sono trasmesse infatti ai competenti uffici amministrativi, che hanno il compito di verificare – ed eventualmente implementare – il materiale raccolto dall’algoritmo fiscale, assumendo la decisione in ordine all’avvio (o all’archiviazione) del procedimento di controllo fiscale vero e proprio.
Interessante è il caso della Finlandia dove i controlli fiscali completamente automatizzati rappresentano oramai l’80% del numero totale delle verifiche effettuate. Di recente, sulla spinta dei numerosi reclami raccolti, il vice difensore civico presso il Parlamento ha svolto diverse inchieste, giungendo a mettere in dubbio che la gestione fiscale automatizzata soddisfi i requisiti di buona amministrazione e di responsabilità dei funzionari e, più in generale, che tali sistemi garantiscano una adeguata protezione legale dei contribuenti.
La ricca casistica documentata dal Rapporto fornisce molti possibili spunti di riflessione.
Tralasciando in questa sede di soffermarsi sulle questioni relative all’opacità algoritmica e al difetto di accountability – temi che riguardano trasversalmente la maggior parte degli algoritmi “pubblici”, e di cui si è già parlato qui e qui – uno dei principali punti critici riguarda l’effettiva compatibilità con la normativa euro-unitaria di quei sistemi di controllo, come l’algoritmo finlandese, integralmente automatizzati.
L’art. 22 del GDPR, nell’interpretazione condivisa dalla dottrina prevalente e dal Gruppo di lavoro Articolo 29 per la protezione dei dati personali, ha inteso porre (non un diritto bensì) un vero e proprio divieto a che il cittadino europeo sia sottoposto ad una decisione completamente automatizzata. Salvo l’istituzione di una specifica deroga normativa a livello interno – i margini di manovra, va detto, possono essere ampi –, agli Stati membri non dovrebbe essere quindi consentita l’implementazione di procedure di controllo fiscale integralmente automatizzate.
Del resto, anche a prescindere dall’operatività di tale divieto, l’esperienza francese – si è già evidenziato che solo il 10-30% dei risultati dell’algoritmo CFVR è stata ritenuta rilevante ai fini dell’avvio di una procedura di controllo vera e propria da parte dei funzionari amministrativi – contribuisce a mettere in luce la perdurante importanza di un’istruttoria (anche) umana per verificare l’effettiva esistenza dell’irregolarità fiscale riscontrata dall’algoritmo fiscale.
Delicato è anche il tema delle banche dati pubbliche utilizzate dall’algoritmo fiscale per la ricerca di correlazioni significative: si è già scritto qui che una maggiore interconnessione tra i sistemi informatici in dotazione alle pubbliche amministrazioni – oltre agli indubbi riflessi positivi sulla efficienza dell’azione amministrativa – può condurre a nuove modalità di ingerenza nella sfera privata, come anche a nuovi dispositivi di controllo. Inoltre, qualora attingano alle piattaforme social dei contribuenti, algoritmi di questo tipo possono anche incidere sulle stesse modalità con cui i contribuenti approcciano a tali mezzi: nel timore di finire nelle maglie dell’algoritmo fiscale, gli utenti potrebbero essere infatti portati a rappresentarsi in modo non genuino, a porre in essere condotte strategiche o, anche, a non rappresentarsi affatto.
Cercando di tirare le fila dalla variegata panoramica offerta dal Rapporto, una prima – provvisoria – conclusione è questa: se da un lato l’intelligenza artificiale si sta rilevando un alleato prezioso per orientare la ricerca di frodi ed evasioni, dall’altro non tutti gli algoritmi sono uguali. Affinché essi siano (non solo efficaci ma anche) compatibili con i principi del giusto procedimento amministrativo e rispettosi della privacy e delle libertà individuali, assume rilievo cruciale la scelta del tipo di algoritmo fiscale da utilizzare e del relativo database.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale