La recente approvazione dell’A.I. Act in sede europea riaccende un dibattito particolarmente intenso sulle implicazioni per il settore pubblico. In questi anni di transizione verso il consolidamento di una disciplina organica comune, diverse questioni hanno animato le riflessioni accademiche e istituzionali dei singoli paesi coinvolti. Tra le tante: come si concilia la trasformazione globale in atto con le specificità delle amministrazioni nazionali? Su quali profili tematici si fonda la discussione interna? Quali sfide incontreranno gli Stati digitali di domani? Questo post si concentra sulle risposte francesi, per fare il punto sulla situazione interna e su tendenze che invece assumono crescente rilevanza trasversale.
Uno studio del Conseil d’État del 2022, commissionato dall’allora primo ministro Jean Castex, delinea la struttura portante dello scenario nazionale. L’obiettivo del documento è duplice: ricognitivo nella prima parte, propositivo nella seconda. Fine ultimo è il consolidamento di una c.d. IA publique de confiance: un utilizzo di IA nel settore pubblico affidabile sia nei suoi risvolti esterni – l’attendibilità nelle relazioni con i cittadini-utenti –, sia in quelli interni – la fiducia e la preparazione dei funzionari.
Ci concentreremo, in questo primo post (cui ne seguirà un secondo, sulla fase “propositiva”), sulla fase ricognitiva iniziale, volta a tratteggiare il quadro degli utilizzi correnti e dei settori amministrativi già interessati dal progressivo impiego di systèmes d’intelligence artificielle (SIA).
La diffusione di applicazioni IA appare generalizzata. Gli obiettivi di efficienza, ottimizzazione e qualità del servizio pubblico nel trattamento di volumi sempre più massicci di dati hanno permeato l’integralità delle articolazioni operative interne. Al tempo stesso, lo studio rileva come tale penetrazione non sia descrivibile (ma nemmeno auspicabile, come vedremo) nei termini di totale rivoluzione: i SIA, spesso corrispondenti a strumenti già ben consolidati nel settore privato, rimangono confinati a uno stadio sperimentale. Questa condizione li rende attualmente incapaci di dare vita a un cambiamento organico nell’infrastruttura digitale, o di stimolare una reale ridefinizione delle politiche pubbliche. Al contrario, è più corretto parlare di una loro graduale diffusione. Al netto di una generica valutazione di sotto sfruttamento del potenziale dell’IA nel settore pubblico – che non risulta peraltro isolato al caso francese, come rileva anche un report AI Watch dello stesso anno – la mappatura delle aree già coinvolte evidenzia gradazioni eterogenee di impiego e, in maniera trasversale, ne delinea le tipologie di applicazione (si v. l’Annexe 9).
Tra i settori più coinvolti spicca l’utilizzo di SIA nel supporto ad attività di controllo e contrasto ai reati, specialmente per iniziative di profilazione dei frodatori o nella definizione di strategie di controllo. Questo, benché il Défenseur des droits abbia rimarcato a più riprese il rischio che simili meccanismi, passando dal ragionamento basato su regole alla risposta basata su esempi, si rivelino altamente discriminatori. Il problema, in questo Osservatorio, è stato affrontato da ultimo nel post di Matteo Vecchio, I dati di addestramento: descrivere il mondo o immaginarne uno migliore?
Più di recente, il dibattito si è concentrato sul tema della videosorveglianza algoritmica che il governo intende implementare in vista delle Olimpiadi di Parigi 2024. L’articolo 10 della Loi n. 2023-380 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions autorizza l’elaborazione, per ora in via sperimentale (fino al 31 marzo 2025), delle immagini registrate da telecamere o droni, al fine di individuare una serie di comportamenti sospetti e garantire così la sicurezza di eventi di grande entità che presentino un elevato rischio di terrorismo. L’iniziativa non è tuttavia rimasta esente da critiche, specie per il timore che la sua espansione conduca ad una sorveglianza sistematica e capillare degli spazi pubblici. Di fronte alle riserve dei gruppi di opposizione e delle associazioni per la tutela delle libertà individuali, i parlamentari hanno richiesto l’intervento della Commission nationale de l’informatique et des libertés (CNIL), che ora ha il compito di vigilare sullo sviluppo di tali sistemi e di contribuire alla definizione di garanzie di trasparenza.
Il tema non è peraltro isolato al caso francese: si vedano, tra i tanti esempi, i post di questo Osservatorio scritti da Maria Giusti, Stop del Garante privacy ai progetti di videosorveglianza smart di Lecce e di Arezzo, Eleonora Schneider, “Captazioni” fuori legge: che cosa fare per garantire una effettiva tutela dei diritti dei sorvegliati?, Sveva Del Gatto, Riconoscimento facciale e uso dei servizi governativi. Numerosi benefici, ma quanti i rischi? Di grande attualità anche il post di Marianna Mazzarella, Il riconoscimento facciale in Cisgiordania: uno strumento di identificazione della popolazione palestinese
Dal punto di vista delle tipologie di compiti assegnati, all’IA risultano soprattutto affidate funzioni ripetitive e minori: così avviene, ad esempio, in ambito previdenziale o nel supporto alla gestione delle procedure di ammissione in ambito scolastico ed educativo. L’avanzamento delle tecniche di automazione ha tuttavia favorito, in anni recenti, un suo impiego in compiti anche più complessi, che prevedono operazioni di analisi e qualificazione. Simili innovazioni hanno raggiunto settori, come quello della giustizia, dove l’IA pubblica risulta ancora scarsamente utilizzata. Interessante, in proposito, il sistema di pseudonimizzazione automatizzata delle decisioni giudiziarie, che consente di eliminare gli elementi identificativi delle parti e dei terzi menzionati nelle decisioni giudiziarie agevolandone la pubblicazione digitale, secondo quanto previsto dalla Loi n. 2016-1321 pour une République numérique.
Viceversa, l’evoluzione algoritmica non presenta dati di integrazione rilevante nel settore della gestione delle risorse umane, diversamente da quanto avviene in altri paesi europei – si pensi al progetto svedese Tengai Unbiased, che ha trasformato le procedure di reclutamento per diverse sfere della pubblica amministrazione, in particolare a livello locale.
Anche i processi decisionali completamente automatizzati risultano nettamente minoritari: l’IA svolge solitamente funzioni di supporto, occupandosi di fasi secondarie e intermedie della decisione. Così avviene nella gestione del territorio, nel settore sanitario e in quello dell’educazione. Il tema rimane particolarmente complesso, specie per le pericolose intersezioni con la questione del trattamento dei dati personali. Se ne è parlato, in questo Osservatorio, nel post di Riccardo Calvara, Provvedimento algoritmico: sì, ma come? Il confine tra mero supporto alla decisione e processo decisionale integralmente automatizzato è invero poroso e spesso difficile da determinare; i rischi connessi di deresponsabilizzazione e perdita di autonomia sono illustrati dalla CNIL nello studio “Comment permettre à l’homme de garder la main. Les enjeux éthiques des algorithmes et de l’intelligence artificielle”, conclusivo di un dibattito pubblico condotto nell’ambito della missione di riflessione etica affidata dalla Loi pour une République numérique citata qui sopra.
La disamina oggettiva del quadro di applicazioni di IA già esistenti nel settore pubblico si sposta, infine, all’impatto soggettivo sui funzionari. Diffidenza e disagio nella gestione del cambiamento appaiono particolarmente estesi, a fronte di una massiccia trasformazione delle modalità ordinarie di conduzione del lavoro. In effetti, tra gli ostacoli che impediscono un’integrazione più strutturale di SIA compaiono proprio l’insufficienza di risorse tecniche, organizzative, umane e finanziarie – con carenze particolarmente accentuate a livello locale – e l’avversione ad una serie di rischi associati (soprattutto di responsabilità giuridica e sicurezza). La situazione tradisce, a ben vedere, una mancanza di familiarità con il funzionamento tecnico dei SIA e con il quadro giuridico di riferimento.
Sulla situazione così descritta si innestano gli obiettivi e i principi di sviluppo per gli anni a venire, calibrati sul grado di diffusione algoritmica attuale e sui dati di scarsa integrazione di risorse umane e tecniche adeguate. Un post successivo si occuperà dell’illustrazione più approfondita di tali prospettive future.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0