“Orizzonti”: gli Editoriali dell’OSD – Numero 9, gennaio 2025 – L’attività amministrativa algoritmica per principi: limiti e prospettive

L’introduzione dell’intelligenza artificiale (IA) nei procedimenti amministrativi solleva questioni di primaria importanza, richiedendo un delicato bilanciamento tra innovazione tecnologica e principi tradizionali del diritto amministrativo, quali legalità, partecipazione e trasparenza. A tali principi consolidati si affiancano nuove esigenze emergenti, come conoscibilità, comprensibilità, non esclusività e non discriminazione, indispensabili per affrontare le sfide derivanti dall’impiego degli algoritmi nelle decisioni pubbliche. In questo contesto, il Regolamento UE 2024/1689 (AI Act, in questo Osservatorio, B. Carotti, Punti di Vista: l’AI Act e i post dei diversi Autori che sono intervenuti sul tema, il cui elenco è reperibile nella stessa pagina) rappresenta un fondamentale punto di riferimento normativo, con particolare attenzione ai sistemi di IA classificati ad alto rischio.

L’utilizzo dell’IA da parte della pubblica amministrazione si inserisce nel più ampio processo di trasformazione digitale avviato nel nostro Paese a partire dagli anni Novanta del secolo scorso. La prima fase della digitalizzazione ha riguardato prevalentemente l’adozione delle ICT per la dematerializzazione: i documenti cartacei sono stati progressivamente convertiti in file digitali, archiviati e trasmessi mediante strumenti elettronici. Nonostante le difficoltà applicative e i numerosi interventi normativi successivi, l’uso delle tecnologie digitali nelle amministrazioni italiane ha registrato nel tempo progressi significativi.

La pandemia da COVID-19 ha rappresentato un’importante accelerazione del processo di digitalizzazione nel settore pubblico. In tale contesto, il Piano Nazionale di Ripresa e Resilienza – PNRR (sul rapporto tra PNRR e digitalizzazione, v. Focus IRPA – Lo Stato digitale nel PNRR e tutti i post accessibili nella stessa pagina), finanziato nell’ambito del programma europeo Next Generation EU, ha destinato 6,74 miliardi di euro alla digitalizzazione della pubblica amministrazione, favorendo l’acquisizione di tecnologie avanzate e l’adozione di strumenti innovativi, tra cui l’IA.

Tali nuove tecnologie segnano una inedita fase della digitalizzazione amministrativa, non più limitata a un ruolo “strumentale”, ma capace di modificare qualitativamente l’esercizio del potere amministrativo.

Ne consegue la necessità di ripensare i principi tradizionali che governano l’azione amministrativa.

In Italia, la giurisprudenza amministrativa ha svolto un ruolo centrale nell’approfondire le questioni giuridiche derivanti dall’impiego degli algoritmi nelle decisioni pubbliche, con particolare riferimento al reclutamento del personale scolastico. I tribunali amministrativi hanno costantemente ribadito che, sebbene gli algoritmi possano essere programmati per considerare molteplici variabili, essi non possono sostituire e soppiantare la supervisione umana, indispensabile per garantire il rispetto delle garanzie procedurali (tra i vari commenti, in questo Osservatorio: R. Calvara, Focus sentenze G.A. su decisioni algoritmiche – Può un algoritmo sostituirsi all’attività amministrativa tradizionale?; C. Bignotti, Focus sentenze G.A. su decisioni algoritmiche – Consiglio di Stato sentenza n. 2270 del 2019: come incoraggiare l’utilizzo di algoritmi nei procedimenti amministrativi senza dimenticare la tutela dei cittadini?; e, in generale, i post di cui allo stesso approfondimento).

Con l’entrata in vigore dell’AI Act si è aperta una nuova fase normativa. Il Regolamento classifica i sistemi di IA in base al livello di rischio e introduce obblighi specifici per quelli ad alto rischio, imponendo il rispetto di principi fondamentali quali trasparenza, supervisione umana e non discriminazione. Sul piano nazionale, il disegno di legge n. 1146/2024 (per un commento, in questo Osservatorio, G. Delle Cave, Intelligenza artificiale e procedimento: friends or foes?) intende affiancare l’AI Act, fissando principi generali per l’utilizzo dell’IA e delegando al Governo l’adozione di normative attuative. Inoltre, l’articolo 30 del nuovo Codice dei contratti pubblici (per un commento in questo Osservatorio, G. Sferrazzo, La digitalizzazione del Codice dei contratti pubblici a quattro mesi dalla sua operatività: ancora problemi in vista) costituisce una base giuridica nazionale che disciplina l’uso dell’IA da parte delle amministrazioni, traducendo in norme generali i principi elaborati dalla giurisprudenza.

L’impiego dell’intelligenza artificiale rappresenta un’opportunità per innovare il settore pubblico e migliorare l’efficienza amministrativa. Tuttavia, tale trasformazione richiede un quadro normativo solido e coerente, idoneo a garantire un equilibrio tra modernizzazione e tutela dei diritti fondamentali. In tale prospettiva, l’AI Act, unitamente alle riforme nazionali, costituisce un passo significativo per affrontare le sfide e cogliere le opportunità offerte dall’IA.

Al centro del dibattito sull’utilizzo degli algoritmi nei procedimenti amministrativi (in questo Osservatorio: M. Macchia, Lo statuto giuridico dell’algoritmo amministrativo; P. Bonini, Algoritmi, intelligenza artificiale e machine learning nei processi decisionali pubblici; G. Cavalcanti, Algoritmi e decisione amministrativa: la metamorfosi del procedimento nell’era della digitalizzazione 4.0) si pone, innanzitutto, la questione della loro conformità al principio di legalità. Se gli algoritmi fossero considerati semplici strumenti a disposizione dell’amministrazione, la quale può discrezionalmente scegliere se e come servirsene, il loro impiego non richiederebbe un’autorizzazione specifica. Tuttavia, qualora si ritenesse che essi rappresentino una nuova forma di esercizio del potere, sarebbe necessario prevedere una specifica abilitazione normativa per ogni loro utilizzo.

A sostegno dell’idea che gli algoritmi possano essere considerati semplici moduli organizzativi, si possono richiamare diverse disposizioni normative. L’articolo 3-bis della legge sul procedimento amministrativo, ad esempio, promuove l’adozione generalizzata di strumenti informatici e telematici nei rapporti interni, tra amministrazioni e tra queste e i privati, al fine di aumentarne l’efficienza. Ancora, l’articolo 41 del Codice dell’amministrazione digitale (CAD) stabilisce in modo esplicito che le pubbliche amministrazioni debbano condurre i propri procedimenti avvalendosi delle ICT. L’ordinamento giuridico italiano attribuisce alle pubbliche amministrazioni un ampio margine di discrezionalità nell’adozione di nuove tecnologie, compresa l’intelligenza artificiale. Tale facoltà, pur riconosciuta come un diritto, non è però illimitata. L’utilizzo di algoritmi nei processi decisionali impone infatti l’osservanza di specifici obblighi, quali la trasparenza, l’imparzialità e la tutela dei diritti fondamentali, senza richiedere, nella maggior parte dei casi, una preventiva autorizzazione legislativa.

A livello europeo, il Regolamento Generale sulla Protezione dei Dati (GDPR) introduce importanti garanzie per tutelare gli individui dalle decisioni basate su trattamenti automatizzati. L’articolo 22 GDPR, in particolare, riconosce il diritto degli interessati a non essere sottoposti a decisioni che producano effetti giuridici significativi o incidano in modo analogo significativamente sulla loro persona e che si basino unicamente sul trattamento automatizzato, compresa la profilazione, senza alcun intervento umano. Tuttavia, il GDPR non vieta in modo assoluto l’utilizzo di algoritmi nei processi decisionali amministrativi. Anzi, ammette la possibilità di decisioni “algoritmiche”, purché siano adottate appropriate garanzie per tutelare i diritti e le libertà degli interessati.

 In conclusione, vi è una evidente tendenza a considerare gli algoritmi come modelli organizzativi, il cui utilizzo non richiede una specifica legittimazione normativa, ma rientra nelle scelte discrezionali dell’amministrazione.

Accanto alla questione connessa alla legalità, emerge sicuramente quella legata al rispetto delle garanzie partecipative. Sorge infatti spontaneo chiedersi come la partecipazione possa contemperarsi con un procedimento compresso, quale è quello algoritmico.

Due questioni principali attengono, infatti, alla possibilità concreta per gli interessati di essere informati adeguatamente e poter prendere effettivamente parte al procedimento, nonché al ruolo del responsabile del procedimento in un contesto nel quale esso potrebbe essere ridotto o eliminato dall’impiego di algoritmi.

A favore della digitalizzazione verte il dibattito dottrinale connesso alla comunicazione di avvio del procedimento. I mezzi tecnologici potrebbero infatti, secondo alcuni studiosi, semplificare e velocizzare l’individuazione e i contatti con gli interessati, rendendo potenzialmente inutili alcune ipotesi in cui l’obbligo di comunicare l’avvio del procedimento risulta temperato, come quella prevista dall’art. 21-octies, comma 2, l. n. 241/1990.

Una volta ricevuta la comunicazione di avvio del procedimento, è essenziale che i destinatari abbiano la possibilità di partecipare al processo decisionale. Possibilità che, come si diceva, è complicata in un procedimento automatizzato, in cui la fase istruttoria è particolarmente compressa e affidata agli algoritmi.

Un’ulteriore questione è quella di determinare a chi attribuire la responsabilità del procedimento amministrativo in presenza di decisioni algoritmiche. Ciò solleva importanti interrogativi connessi al ruolo del responsabile del procedimento.

Il principio c.d. dello “human-in-the-loop” (HITL), sancito dall’art. 22 GDPR e rafforzato dalla giurisprudenza amministrativa (tra le altre, Cons. Stato, n. 4472/2019 e Cons. Stato, n. 881/2020), ne è la più chiara testimonianza. Tale principio impone che il funzionario sia sempre coinvolto nei processi decisionali supportati da sistemi intelligenti. Gli Orientamenti etici per un’IA affidabile del 2019, sviluppati dal Gruppo indipendente di esperti sull’intelligenza artificiale istituito dalla Commissione europea, illustrano come il principio della sorveglianza umana necessiti della distinzione tra tre diversi modelli di interazione uomo-macchina: (i) il modello human-in-the-loop (HITL), che implica la possibilità di intervento umano in ogni passaggio logico compiuto dal sistema; il modello human-on-the-loop (HOTL), che prevede il coinvolgimento umano solo nelle fasi di programmazione e monitoraggio del software; e il modello human-in-command (HIC), secondo il quale il controllo umano sull’attività del software è esercitato in senso complessivo, decidendo quando e come realizzarlo.

Sebbene la selezione iniziale dei dati cui l’algoritmo si serve sia così rilevante da costituire, secondo alcuni studiosi, il nucleo essenziale del processo decisionale, ciò non può esonerare l’amministrazione dal suo dovere di esercitare il controllo sia durante sia al termine del procedimento. Tale supervisione dovrebbe, in primo luogo, prevedere che le parti interessate possano partecipare ai procedimenti e, in secondo luogo, consentire all’amministrazione di verificare i risultati prima di adottare il provvedimento.

L’AI Act pone l’accento sulla supervisione umana, in particolare all’articolo 14, disposizione che si trova all’interno della Sezione 2 del regolamento, dedicata ai sistemi di IA ad alto rischio e quindi applicabile solo a queste categorie. In primo luogo, l’articolo 14 stabilisce che la supervisione umana deve estendersi alle fasi di progettazione e sviluppo di tali sistemi (par. 1), con l’obiettivo di prevenire o ridurre i rischi per la salute, la sicurezza e i diritti fondamentali degli interessati (par. 2). Tale supervisione deve essere sempre proporzionata al tipo di IA impiegato nel caso concreto (par. 3). Il par. 4 sottolinea che i responsabili della supervisione devono: (i) possedere una conoscenza e una comprensione sufficienti del sistema di IA per monitorarne efficacemente il funzionamento; (ii) essere consapevoli della naturale tendenza umana a fare affidamento sui risultati del sistema di IA; (iii) interpretare correttamente i risultati e disporre degli strumenti necessari per ignorarli o modificarli, se necessario; e (iv) avere la capacità di interrompere in modo sicuro il funzionamento dei sistemi di IA quando necessario.

Alle questioni relative alla partecipazione si legano quelle connesse alla trasparenza. La definizione di trasparenza che conosciamo, che vuole l’amministrazione scrutabile dall’esterno come se fosse una “casa di vetro”, è in tensione insanabile con l’oscurità intrinseca degli algoritmi. Affinché la trasparenza possa essere realmente effettiva, è necessario che il concetto stesso si evolva – anche a livello normativo – in armonia con i mutamenti sociali, culturali e concettuali. La trasformazione tecnologica impone una riformulazione della trasparenza, affinché essa possa adattarsi ai nuovi strumenti utilizzati nei procedimenti amministrativi.

L’opacità algoritmica, in particolare, costituisce una sfida significativa per la trasparenza, soprattutto perché: (i) si ricorre a big data, che per volume, varietà e velocità rendono difficoltosa la tracciabilità e l’intelligibilità delle decisioni; (ii) la capacità di alcuni algoritmi – in particolare machine learning e deep learning – di auto apprendere e di “decidere” in autonomia rendono tali processi intrinsecamente imprevedibili. L’opacità degli algoritmi assume diversi caratteri: è una opacità linguistica (poiché gli algoritmi sono scritti in linguaggio di programmazione), giuridica (per le questioni relative alla tutela della proprietà intellettuale degli sviluppatori dei software), e strutturale (a causa della complessità e spesso dell’incomprensibilità degli algoritmi, soprattutto machine learning e deep learning).

Una distinzione cruciale si pone, in questo senso, tra algoritmi model based e algoritmi machine learning. I primi operano secondo una logica predefinita, assimilabile al ragionamento giuridico, grazie alla loro struttura condizionale “if/then”. Al contrario, gli algoritmi di machine learning generano output attraverso l’individuazione di schemi complessi nei dati di addestramento. Questo iter, tuttavia, risulta spesso opaco, trasformando i processi impiegati e i risultati in una sorta di “black box” che rende arduo, se non impossibile, individuare le logiche impiegate.

Tale oscurità incide inevitabilmente sull’esercizio dei diritti dei soggetti coinvolti nelle decisioni algoritmiche, i quali dovrebbero essere in grado di conoscere e comprendere la logica utilizzata da tali strumenti intelligenti. È per tale ragione che diventa importante distinguere tra due tipologie di trasparenza: la c.d. “fishbowl transparency” e la c.d. “reasoned transparency”. Il primo tipo di trasparenza si riferisce alla capacità degli interessati di poter osservare le modalità con cui l’amministrazione agisce, ottenendo le indicazioni utili e pertinenti a tal fine, tramite l’esercizio del diritto di accesso a dati, documenti e informazioni. Il secondo tipo di trasparenza, invece, concerne la comprensione della logica che muove l’azione e le decisioni dell’amministrazione, al fine di garantire una forma di controllo sull’operato amministrativo e di tutela dei diritti fondamentali dei soggetti coinvolti.

Per garantire un adeguato livello di trasparenza, è fondamentale che le decisioni automatizzate siano accompagnate da una spiegazione che renda comprensibili le logiche e i criteri utilizzati dagli algoritmi. Non la mera conoscibilità di quello che accade, dunque, ma la concreta comprensibilità dell’intero iter logico.

In linea con questo l’AI Act, all’articolo 13 stabilisce che i sistemi di IA ad alto rischio devono essere progettati con una trasparenza sufficiente a garantire che gli utenti possano comprenderli e utilizzarli efficacemente. Questi sistemi devono essere accompagnati da istruzioni chiare ed esaurienti, che dovrebbero includere: (i) informazioni sul fornitore del sistema di IA; (ii) dettagli sulle capacità e sui limiti del sistema; (iii) una descrizione dei potenziali rischi associati al suo utilizzo. Inoltre, le istruzioni devono chiarire come interpretare i risultati del sistema, tenere conto di eventuali modifiche predeterminate al sistema e fornire indicazioni sulla sua manutenzione. Ciò riflette il passaggio dalla trasparenza garantita in termini di conoscibilità (come richiesto dagli articoli 13 e 14 GDPR) alla trasparenza declinata quale vera e propria comprensibilità.

Per concludere, il fenomeno dell’amministrazione algoritmica rappresenta una sfida complessa per il diritto. Sebbene i principi offrano delle linee guida per orientare l’azione amministrativa e garantire il rispetto di valori fondamentali come trasparenza, non discriminazione e partecipazione, la natura oscura degli algoritmi rende difficile applicare regole rigide e universalmente valide. Nonostante il contributo significativo della giurisprudenza e l’influenza crescente della regolazione europea, come dimostrato da normative quali L’AI Act, gli algoritmi rimangono strumenti intrinsecamente opachi. La loro complessità tecnica e la dipendenza da modelli matematici spesso non immediatamente comprensibili, persino per esperti, li rendono difficilmente assoggettabili alla supervisione umana. Inoltre, la rapidità con cui si evolvono le tecnologie amplifica il rischio che esse sfuggano a forme adeguate di partecipazione e controllo democratico.

Questo scenario sottolinea l’importanza di sviluppare un approccio che vada oltre la semplice imposizione di regole formali. È necessaria una costante collaborazione tra esperti tecnici, giuristi e istituzioni per promuovere una governance adattiva e responsabile dell’amministrazione algoritmica. Restano fermi alcuni limiti invalicabili che nessuna normativa potrà mai completamente arginare.

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0