Questo post fa parte del punto di vista dell’Osservatorio sull’AI Act
Abstract: Chi trova un amico trova un tesoro. Amicus omnibus, amicus nemini. Amico di tutti, amico di nessuno. Qual è il rapporto “sociale” tra procedimento amministrativo e intelligenza artificiale? L’evoluzione tecnologica viaggia su binari supersonici e le macchine si apprestano al salto di generazione: esse dispongono ormai di margini di auto-apprendimento, autoorganizzazione, financo auto-decisione. Si pone, adunque, al diritto il tema dell’I.A. e della sua regolazione, soprattutto, per quanto qui rileva, del suo utilizzo da parte della P.A. nell’ambito del mezzo, dell’attività, a sé più vicina: il procedimento amministrativo. Aiuta nella disamina di che trattasi il recente DDL sull’I.A. che, tra principi e tematiche procedimentali, induce l’interprete a riflettere proprio sugli impatti dell’intelligenza artificiale sull’attività pubblicistica “quotidiana” della P.A.
Come ogni strumento umano, anche l’I.A. porta con sé un lato oscuro, un Mr. Hyde di stevensoniana memoria che necessita di criteri regolatori ben precisi per equilibrare al meglio, da un lato, le opportunità che offre in punto tecnologico e, dall’altro, i rischi inevitabilmente legati all’uso improprio della stessa. Ciò a maggior ragione laddove si utilizzi la macchina intelligente all’interno della sacralità formale e sostanziale del procedimento amministrativo.
Ebbene, proprio con riferimento al procedimento de quo e per quanto qui di precipuo interesse, offre notevoli spunti giuridici di interesse il recente Disegno di Legge n. 1146 (avente ad oggetto “Disposizioni e delega al Governo in materia di intelligenza artificiale”), che – accompagnando di fatto l’A.I. Act europeo sul versante regolatorio (sul punto sia consentito il rinvio a G. Delle Cave, La tutela da e per l’I.A.: prime riflessioni sulla governance dell’A.I. Act e sulla (nuova?) autorità di vigilanza) – tenta di coprire quegli spazi propri del diritto interno al fine di plasmarne l’architettura, con l’intento di favorire un ingresso, auspicabilmente, agevole dell’intelligenza di che trattasi all’interno delle maglie della P.A.
L’obiettivo, pure dichiarato dal DDL de quo, è particolarmente nobile e ambizioso: proteggere i diritti fondamentali, la democrazia e lo Stato di diritto – tenendo a mente i rischi e gli impatti associati all’I.A. – in un contesto in cui le spinte provenienti dal mercato del digitale, draconico perno del sistema, si fanno sempre più vigorose e pressanti.
Ebbene, per meglio comprendere gli impatti dell’intelligenza artificiale nell’economia del procedimento amministrativo, giova anzitutto, succintamente, prendere le mosse – e chiarire – il perimetro normativo all’interno del quale l’intelligenza artificiale sarebbe, astrattamente, chiamata ad operare. Ab urbe condita, il dato costituzionale. Per quanto qui rileva, infatti, non è possibile non richiamare quanto disposto dall’art. 28 Cost., a mente del quale “i funzionari e i dipendenti dello Stato e degli enti pubblici sono direttamente responsabili, secondo le leggi penali, civili e amministrative, degli atti compiuti in violazione di diritti” e in tali casi la responsabilità civile si estende allo Stato e agli enti pubblici; nonché dall’art. 97 Cost., secondo cui, al comma 2, si dispone, come noto, che “i pubblici uffici sono organizzati secondo disposizioni di legge, in modo che siano assicurati il buon andamento e l’imparzialità dell’amministrazione”. Da subito, quindi, si può affermare, in punto costituzionale, come la strumentazione digitale – di qualsiasi tipologia ed entità – può certamente concorrere ai canoni di efficienza ed economicità dell’azione amministrativa secondo i principi appena evocati (qualora, si badi, sia effettivamente utilizzata con l’intento di semplificare e non complicare l’attività amministrativa in esame). Peraltro, l’assenza di intervento umano in un’attività, ad esempio, di mera classificazione automatica di istanze numerose – secondo regole predeterminate (cioè elaborate dall’uomo), mediante l’affidamento a un efficiente elaboratore elettronico (o a una I.A.) – parrebbe dirsi quasi doverosa declinazione dell’art. 97 cit., in quanto a tutta evidenza coerente con l’attuale evoluzione tecnologica.
Muovendo, poi, alla normativa di rango primario, è di ovvio e immediato interesse la l. n. 241/1990, il cui plesso dispositivo ci illumina sui principi fondamentali dell’azione amministrativa (art. 1, ossia, inter alia, l’efficienza, l’economicità, l’imparzialità, la pubblicità, ecc.), sulle tempistiche relative al procedimento e l’obbligo di motivazione (artt. 2 e 3), sull’uso della telematica (art. 3 bis, secondo cui “per conseguire maggiore efficienza nella loro attività, le amministrazioni pubbliche agiscono mediante strumenti informatici e telematici , nei rapporti interni, tra le diverse amministrazioni e tra queste e i privati”), sulle garanzie a tutela del contraddittorio procedimentale (artt. da 7 a 10 bis). Ora, dalla lettura della l. n. 241/1990 emerge, da subito, un concetto chiarissimo: lo statuto del procedimento amministrativo è clamorosamente, e ovviamente, incentrato sull’uomo. Senza dubbio il procedimento de quo si apre alla telematica – e all’informatica decisionale perché no – ma già dall’art. 3 bis cit. si deduce, immediatamente, la funzione meramente strumentale di detti mezzi informatici (o robotici per dirla con l’I.A.) rispetto al modello decisionale saldamente nelle mani del funzionario pubblico (si veda sul punto G. Sgueo, Ripensare il sapere pubblico: la “co-intelligenza” uomo-macchina nelle pubbliche amministrazioni).
Così si rinviene, del resto, anche nel d.lgs. n. 82/2005 (Codice dell’Amministrazione Digitale-CAD), con cui l’utilizzo delle tecnologie, in generale, viene laicamente benedetto all’interno del procedimento di che trattasi. Non a caso, l’art. 12, comma 1, del CAD è inequivocabile nel prevedere che “le pubbliche amministrazioni nell’organizzare autonomamente la propria attività utilizzano le tecnologie dell’informazione e della comunicazione per la realizzazione degli obiettivi di efficienza, efficacia, economicità, imparzialità, trasparenza, semplificazione e partecipazione nel rispetto dei principi di uguaglianza e di non discriminazione, nonché per ‘effettivo riconoscimento dei diritti dei cittadini e delle imprese di cui al presente Codice”, pure in conformità “agli obiettivi indicati nel Piano triennale per l’informatica nella pubblica amministrazione”. Si pensi anche all’art. 41 del CAD, ove, nel prevedere che “le pubbliche amministrazioni gestiscono i procedimenti amministrativi utilizzando le tecnologie dell’informazione e della comunicazione”, si precisa che il fascicolo informatico debba prevedere anche l’indicazione “del responsabile del procedimento”, a conferma che né la digitalizzazione né l’informatizzazione dell’azione amministrativa possono comportare una totale estromissione dell’attività umana; esse, piuttosto, devono potenziare e supportare le decisioni dei soggetti pubblici, dal momento dell’istruttoria fino alla determinazione finale del procedimento. Ora, gli articoli del CAD sopra citati, letti in combinato proprio con l’art. 1, comma 2 bis, della l. n. 241/1990 (“I rapporti tra il cittadino e la pubblica Amministrazione sono improntati ai princìpi della collaborazione e della buona fede”), già ci offrono, a ben vedere, uno spunto di riflessione importante quanto all’uso delle tecnologie informatiche nei rapporti tra P.A. con il cittadino e cioè che l’utilizzo delle macchine (e quindi dell’I.A.) deve certamente semplificare ma giammai la rigidità del sistema informatico può risolversi a detrimento delle istanze del privato. La buona fede, in sostanza, si declina qui – con riferimento a detta tecnologia – proprio nella messa a disposizione da parte della P.A. di un software, di una intelligenza artificiale che costituisca un efficiente strumento di semplificazione e speditezza procedimentale, non potendo ricadere sul privato cittadino le conseguenze dell’utilizzo di una I.A. inidonea allo scopo, che cioè induca in errore gli attori del procedimento amministrativo; né, del resto, l’intelligenza di che trattasi può esercitare in toto la funzione amministrativa che si esplica nel procedimento amministrativo.
Ebbene, quid iuris allora circa l’innesto dell’I.A. all’interno di dette disposizioni? Ancora una volta, il point break, dal gergo surfistico, è costituito dal dato normativo, da cui necessariamente è doveroso prendere le mosse. Si tratta, infatti, di comprendere – sia consentito l’eretico parallelismo – il momento in cui l’onda dell’I.A. incontra il fondale superficiale del procedimento amministrativo, rompendosi fragorosamente.
Ebbene, l’art. 3 del DDL sopra citato già pone il lettore, da subito, avanti temi di dubbia utilità giuridica nella formulazione delle disposizioni (ove ben poco di innovativo si rinviene rispetto al quadro normativo già esistente e applicabile): ed infatti il comma 1 molto si sofferma sul fatto che “la ricerca, la sperimentazione, lo sviluppo, l’adozione, l’applicazione e l’utilizzo di sistemi e di modelli di intelligenza artificiale avvengono nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione europea e dei princìpi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità”. E ancora, “i sistemi e i modelli di intelligenza artificiale devono essere sviluppati e applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità e dei princìpi di cui al comma 1” (comma 3); inoltre, l’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica.
Trattasi di principi che, di fatto, non rivestono certo le vesti di elementi di novità nel panorama ordinamentale nazionale (molti, peraltro, sono cristallizzati nella stessa l. n. 241/1990). Eccesso di zelo da parte del legislatore? Così sembrerebbe: peccato però che, in concreto, nihil sub sole novum, pure se si guarda a quanto ormai più volte rilevato dal giudice amministrativo nel corso degli anni (sebbene con riferimento al – diverso – tema dell’utilizzo degli algoritmi o della digitalizzazione della P.A.; cfr. Cons. Stato, n. 2270/2019, n. 8472/2019 e n. 881/2020). Ed infatti, sarebbe estremamente complesso anche solo ipotizzare come l’utilizzo dell’I.A. nel procedimento amministrativo, in violazione dei supremi principi posti a governo dello stesso (ma anche delle norme costituzionali ed europee in generale, parametri di legittimità anche dei provvedimenti della P.A.), possa generare atti potenzialmente idonei a sfuggire al vaglio giurisdizionale. Diversamente, di notevole interesse sono i – sì nuovi – principi di sicurezza, valorizzazione del dato, eticità, riservatezza, robustezza, accuratezza di sistemi e modelli, oltre alla necessità di ancorare sistemi e modelli su dati e processi corretti, attendibili, sicuri, di qualità, appropriati e trasparenti. Principi, questi ultimi, tesi al perseguimento di almeno tre interessi specifici: (i) il trattamento algoritmico equo e corretto, in termini di accessibilità a tutti gli individui e inclusività massima; (ii) la protezione dei dati (anche nel rispetto della cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di I.A.); (iii) la sostenibilità digitale, vale a dire il rispetto del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità e della spiegabilità.
Detti principi si innestano, poi, nei successivi articoli del DDL e, in particolare, nel macro-ambito dell’utilizzo dell’I.A. da parte della pubblica amministrazione.
L’analisi (rectius la ricerca) degli impatti della I.A. sul procedimento amministrativo passa, infatti, per l’art. 13 del DDL in esame, ove si prevede che “le pubbliche amministrazioni utilizzano l’intelligenza artificiale allo scopo di incrementare l’efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo”. Assicurare la conoscibilità, ossia, da un lato, tutelare i diritti degli interessati e, dall’altro, evitare il rischio di deresponsabilizzazione dei funzionari. Il tema non è banale laddove si consideri che pure le coordinate pretorie attualmente rinvenibili sul macrotema sono, di fatto, riferite a fattispecie aventi ad oggetto algoritmi standard (ossia sequenze di calcoli ed istruzioni fisse e ben perimetrate; come tali, spiegabili in ogni loro componente e processo) non già all’I.A., i cui strumenti si basano, invece, su un quantitativo di dati e parametri enorme e sterminato, a volte nemmeno univocamente identificabili (si pensi all’I.A. generativa). Per cui il livello di “spiegabilità” predicata in giurisprudenza con riferimento agli algoritmi non può dirsi, prima facie, il medesimo richiesto per l’intelligenza qui in esame. Ed è, forse, per tale ragione che il comma 2 dell’art. 13 cit. si premura di precisare che “l’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale [c.d. principio di autodeterminazione], nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale”. In buona sostanza, l’I.A. nel procedimento in esame non può tradursi in una “spersonalizzazione” della decisione amministrativa, tant’è che la decisione finale resta esclusivamente in capo all’essere umano e non alla macchina (anche in ossequio all’art. 28 Cost.). Non a caso è lo stesso DDL (art. 13, comma 3) a chiarire che assume valenza fondamentale lo sviluppo delle “capacità trasversali degli utilizzatori” dell’I.A., con la susseguente, inevitabile, correlazione tra la responsabilità del funzionario e la sua decisione di ricorrere all’intelligenza di che trattasi.
E qui un primo interrogativo di ordine pratico: la c.d. “paura della firma” è destinata a tradursi in “paura della robotica”? Sul punto, la responsabilità erariale, si sa, è come una leonessa in battuta di caccia: nell’apparente calma della savana, scatta all’improvviso pronta ad agguantare l’amministrativa preda. Ora, dal momento che nessuna norma impone l’utilizzo dell’I.A. nel procedimento amministrativo, c’è sensatamente da chiedersi quale funzionario si accolli il rischio di esporsi a responsabilità derivanti da decisioni assunte da modelli generativi dall’oscuro funzionamento. A meno che non si integri, semplicisticamente, in squadra un tecnico informatico proprio con l’obiettivo di superare quel deficit di trasparenza amministrativa che l’applicazione selvaggia degli algoritmi dell’I.A. porta con sé; ciò, insomma, sulla scorta di un modello collegiale che potrebbe strizzare l’occhio, guardando verso tutt’altro orizzonte, alla composizione del Tribunale Superiore delle Acque Pubbliche (ove almeno lì, ai sensi dell’art. 139 del R.D. n. 1775/1933, un tecnico, nelle vesti dell’esperto ingegnere, effettivamente c’è). Una collegialità “allargata”, adunque, che potrebbe trovare dimora nelle formule della conferenza di servizi ex art. 14 e ss. della l. n. 241/1990 o, ancora, nelle forme di una rete di dialogo tra attori pubblici e privati maggiormente consapevole e più orientata all’esercizio costante della funzione amministrativa accompagnata dall’informatica.
Ma vi è di più. Si consideri che l’I.A. non entra nel procedimento amministrativo per privilegium dirigenziale ma è, evidentemente, utilizzata solo in seguito all’acquisto della macchina stessa. Ebbene, a ben vedere, anche l’acquisizione – l’approvvigionamento – dei sistemi di I.A. da spendere all’interno degli apparati amministrativi presta il fianco a profili di non trascurabile responsabilità, solo parzialmente mitigati, sul versante pubblicistico, dalle indicazioni rinvenibili all’art. 30 del d.lgs. n. 36/2023 (secondo cui, al comma 2 e a mo’ di grillo parlante, si prevede che “nell’acquisto o sviluppo delle soluzioni di cui al comma 1 – ossia le soluzioni tecnologiche, ivi incluse l’intelligenza artificiale e le tecnologie di registri distribuiti – le stazioni appaltanti e gli enti concedenti: assicurano la disponibilità del codice sorgente, della relativa documentazione, nonché di ogni altro elemento utile a comprenderne le logiche di funzionamento; introducono negli atti di indizione delle gare clausole volte ad assicurare le prestazioni di assistenza e manutenzione necessarie alla correzione degli errori e degli effetti indesiderati derivanti dall’automazione”).
L’auspicio, quindi, è doveroso, e cioè meglio definire – con precisione – i criteri e i parametri in base ai quali il funzionario va ritenuto responsabile del danno posto dall’utilizzo dell’I.A. nel procedimento amministrativo, onde evitare che l’intelligenza artificiale resti un arredo da giuridici scaffali come la blockchain.
Sotto diverso angolo visuale, pare pure inverosimile che figure cardine del procedimento amministrativo – ossia il responsabile del procedimento (re dell’istruttoria ai sensi dell’art. 6 della l. n. 241/1990) e l’organo competente all’adozione del provvedimento – vengano completamente spogliati da competenze e responsabilità da parte di meccanismi tecnologici intelligenti, espropriando le aree di proprietà umana, per come cristallizzate nella sistematica del procedimento de quo, e trascendendo il ruolo strumentale a servizio dei soggetti umani responsabili. Non si discute, quindi, circa il fatto che il RUP, nell’ambito dei poteri assegnati dalla l. n. 241/1990 (cfr. art. 6, comma 1, lett. b, a secondo cui egli “adotta ogni misura per l’adeguato e sollecito svolgimento dell’istruttoria”), possa optare per uno svolgimento del procedimento integralmente in forma automatica; ma che detta scelta non potrà mai tradursi, ai sensi di legge, in una compromissione del momento “umano” (quanto a competenze e poteri) a vantaggio di quello “digitale”.
Pertanto, ben venga che l’I.A. supporti il RUP nella formazione delle “risultanze dell’istruttoria” procedimentale (cfr. ancora art. 6, comma 1, lett. e, l. n. 241/1990), purché la sede decisoria – la sede della motivazione – sia sempre e solo presieduta dal fattore umano (l’organo competente o il RUP medesimo), a conferma o a superamento di qualsiasi prodotto computazionale sia generato dai processi di automazione a monte. Vero è che in caso di utilizzo degli algoritmi sottesi ad un sistema di I.A. nell’istruttoria procedimentale, il funzionamento degli stessi diventa elemento essenziale per comprendere le motivazioni del provvedimento amministrativo; e tale circostanza rileva ancor di più se si pensa alla motivazione per relationem (giusto il disposto di cui all’art. 3, comma 3, della l. n. 241/1990, secondo cui “se le ragioni della decisione risultano da altro atto dell’amministrazione richiamato dalla decisione stessa, insieme alla comunicazione di quest’ultima deve essere indicato e reso disponibile, a norma della presente legge, anche l’atto cui essa si richiama”). In tal caso, pare ovvio che tutto quanto posto alla base delle valutazioni dell’I.A. (codici, firme e dati) costituirà parte integrante delle determinazioni della P.A. “a cascata”.
Al netto di quanto sopra, il bilancio finale è che trattasi di disposizioni – quelle sull’I.A. nella P.A. – dalla limitata cogenza e pure prive di un idoneo apparato sanzionatorio, tanto da far dubitare della loro effettiva incidenza sulla modernizzazione di un procedimento, quello amministrativo, che a livello tecnologico si muove ormai da anni sull’autostrada della digitalizzazione (in cui l’I.A. dovrebbe asseritamente innestarsi) e che, comunque, non può fisiologicamente e sistematicamente dare dimora a decisioni esclusivamente digitali, neppure in virtù di volizioni umane a favore di una automazione a tuttotondo.
L’interrogativo (il secondo) che ci si pone qui, allora, è diverso: si tratta al più di capire fino a che punto si potrà contestare una decisione, una motivazione specifica, della P.A. per carenza di istruttoria lì dove non è stata utilizzata l’I.A., e non solo con riferimento alla corretta definizione della scelta amministrativa ma pure quanto al suo effettivo sindacato. Sul punto, infatti, si consideri che – con l’applicazione dell’I.A. nel procedimento amministrativo – non sembrerebbe, a tutta prima, erosa la sfera della discrezionalità amministrativa in favore di quella tecnica; la tecnica qui (nelle forme dell’intelligenza artificiale) incide sì sulla formazione della decisione ma, si badi, solo nella misura in cui fornisce al decisore pubblico degli scenari predeterminati entro i quali compiere la ponderazione degli interessi. Si garantisce così non solo quella “riserva di umanità”, cara alla migliore dottrina, per cui la decisione finale spetta sempre e comunque all’individuo o al collegio umano (si veda B. Carotti, Riserva di umanità e funzioni amministrative. A proposito dello studio di Giovanni Gallone) ma anche una parallela “riserva di collettività”, intesa in termini più ampi, quale tutela – da parte dell’uomo – del momento divulgativo del funzionamento dell’I.A. idoneo a formare e informare tutti i destinatari e i soggetti interessati circa il funzionamento delle tecniche utilizzate, ciò anche sotto la lente dei principi costituzionali e dell’eguaglianza sostanziale. Tant’è che cambiano, o comunque potrebbero cambiare, proprio le basi conoscitive propedeutiche alla decisione (e quindi il sostrato procedimentale), vale a dire come vengono raccolti, trattati e selezionati i fatti alla base della decisione (la cui rilevanza è tale da incidere anche nell’ambito di eventuali, successivi, giudizi).
Se I.A. e procedimento amministrativo siano destinati a una vigorosa amicizia o a una feroce ostilità, non v’è modo di dirlo oggi. Valga però il sempre attuale brocardo latino, amicum an nomen habeas, aperit calamitas (“se tu abbia un amico, o solo il nome di esso, te lo diranno le sventure”).
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0