L’uso dell’IA nelle pubbliche amministrazioni: mitologia informatica?

Immagine creata con DALL-E

Questo post fa parte del punto di vista dell’Osservatorio sull’AI Act

L’integrazione dell’intelligenza artificiale nelle pubbliche amministrazioni è più reale che mitologica: quanto meno per quello che riguarda gli applicativi. Tra i “vuoti” da colmare troviamo invece le competenze, le regole e la sostenibilità. Nessuno di questi spazi è colmato in modo soddisfacente dalle disposizioni dell’AI act europeo. Il loro riempimento, tuttavia, è dirimente per comprendere come evolve una pubblica amministrazione attraverso l’automazione.

Partiamo dalla fine. Rispondiamo alla domanda che dà il titolo a questo contributo. Lo faremo in due tempi.

Primo tempo: di mitologico, nell’integrazione tra intelligenze artificiali e pubbliche amministrazioni, c’è poco. Quanto meno dal punto di vista degli applicativi. Una rapida ricognizione delle rilevazioni dell’Osservatorio sull’innovazione nel settore pubblico dell’Organizzazione per la Cooperazione e lo Sviluppo Economico – OCSE ci mostra centinaia di casi d’uso (alcuni in fase di sviluppo) nei paesi G7 e, appunto, nell’area OCSE. Già nel 2023, The European House – Ambrosetti quantificava in Italia 38 progetti di intelligenza artificiale nella pubblica amministrazione, circa il 10% del totale europeo. La strategia italiana per l’intelligenza artificiale ha fissato al 2025 l’obiettivo di sviluppare e implementare 150 progetti di intelligenza artificiale, che dovranno salire fino a 400 entro il 2026.

Questi applicativi coprono uno spettro ampio di funzioni amministrative. Dall’elaborazione di politiche fiscali e doganali, al miglioramento dei processi di audit e trasparenza, fino al supporto alle attività di ricerca e analisi delle informazioni. Includono forme di assistenza virtuale (prevalentemente chatbot) per rispondere alle richieste degli utenti, per la classificazione e lo smistamento automatico dei messaggi di posta elettronica certificata e per l’automazione nella gestione di bandi e prestazioni.

Aumentano rapidamente anche le iniziative governative finalizzate a istruire la forza lavoro pubblica all’utilizzo responsabile degli algoritmi. Linee guida per orientare il lavoro dei dipendenti pubblici nell’utilizzo delle intelligenze artificiali (soprattutto generative) esistono in Canada, nel Regno Unito, in Australia, Nuova Zelanda e Corea del Sud. Gli Stati Uniti, con l’AI leadership training Act, hanno avviato un piano di formazione pluriennale del personale pubblico dedicato esclusivamente all’intelligenza artificiale. L’Unione europea investe nelle community of practice – vere e proprie comunità epistemiche centrate sullo scambio di buone prassi tra funzionari pubblici e mondo accademico. Ultimo, in ordine di tempo, il manuale d’uso per i dipendenti pubblici alle prese con le intelligenze artificiali licenziato dal G7 a guida italiana, in collaborazione con l’OCSE, a ottobre 2024.

Secondo tempo. Possiamo parlare di mitologia dell’intelligenza artificiale nella pubblica amministrazione, ma limitatamente all’incompiuto. I vuoti che attraversano l’integrazione algoritmica alla funzione pubblica abbracciano un campo vasto. Quest’ultimo spazia dalle competenze alle regole, passando per la sostenibilità. Nessuno di questi vuoti è colmato in modo soddisfacente dalle disposizioni dell’AI act europeo. Il loro “riempimento”, tuttavia, è dirimente per gli sviluppi futuri di una pubblica amministrazione ad elevato tasso di automazione. Esplorarne i confini ci aiuta a distinguere tra ciò che è possibile, auspicabile e irrealizzabile.

Iniziamo dalle competenze, con una provocazione. Alcuni sostengono che il 2024 verrà ricordato come l’ultimo anno in cui i premi Nobel sono stati assegnati a noi sapiens. In effetti, per la prima volta nella storia del premio, quest’anno in due casi (Fisica e Chimica) l’assegnazione ha riconosciuto il contributo determinante dell’intelligenza artificiale al risultato finale. Al di fuori della provocazione, il punto è chiaro. Il cambio di paradigma delle competenze umane e del loro utilizzo è avviato e irreversibile. Evolve però in modo incerto e imprevedibile. Come ho scritto in un recente Editoriale dell’Osservatorio, l’incontro tra il sapere umano e quello artificiale nelle pubbliche amministrazioni promette la nascita di forme ibride di “co-intelligenza” uomo-algoritmo, garanti di performance potenzialmente migliori rispetto a quella umana. Il tutto a una condizione. Ovvero la permanenza di un presidio umano al rispetto dei principi della trasparenza, dell’accessibilità e della sostenibilità della decisione algoritmica.

Obiettivo raggiungibile, in teoria. Meno nella pratica. Al netto di regole che individuino le soglie di rischio – compito al quale sopperisce l’AI Act in Europa – un presidio umano richiede un aggiornamento del sistema di formazione delle competenze in ingresso sul mercato del lavoro e di aggiornamento durante tutto il periodo di permanenza attiva su quel mercato. Da questo punto di vista, gli approcci divergono sensibilmente. A fronte di Paesi come gli Emirati Arabi, che dal 2021 dispongono della prima università al mondo dedicata all’intelligenza artificiale, il quadro di altri Paesi è frammentato e incompleto. In Italia, ad esempio, nonostante 53 atenei che erogano corsi legati all’intelligenza artificiale, un Dottorato Nazionale in Intelligenza Artificiale attivo dal 2021 e il regime di eccezionalità previsto dal Piano Nazionale di Ripresa e Resilienza, le pubbliche amministrazioni faticano a trovare profili tecnici e specialistici.

Paesi privi di competenze e risorse sul fronte dell’intelligenza artificiale sono anche incapaci di mantenere standard elevati nel monitoraggio e aggiornamento dei modelli di linguaggio di larghe dimensioni. Stati che investono meno nella qualità della supervisione, possono creare modelli che, sebbene utili in contesti specifici, non rispettano le linee guida etiche o di precisione applicate altrove.

La questione regolatoria è ancora più complessa. A essa si affida la soddisfazione della domanda di tutele generata dall’intelligenza artificiale. Circostanza che ha contribuito allo sviluppo di molteplici regimi regolatori, frammentati e disordinati. Nel 2023, 127 paesi hanno introdotto provvedimenti normativi su questo fronte, a cui si aggiungono le strategie nazionali sull’intelligenza artificiale (oltre 72 globalmente), i codici di condotta adottati da organizzazioni professionali e di settore, i memorandum di intesa internazionali e le sperimentazioni controllate attraverso cui governi come quello spagnolo e britannico mettono a disposizione degli operatori privati dataset protetti per consentire loro di testare la compliance dei modelli di intelligenza artificiale con i requisiti regolamentari. Il presente della regolazione dell’intelligenza artificiale, caratterizzato da velocità multiple nella maturità e qualità delle regole è accompagnato da nuove forme di protezionismo e controllo, figlie del tentativo di economie deboli di tenere il passo della competizione globale per la supremazia digitale.

Questo “nazionalismo dell’IAlimita l’accesso alle tecnologie essenziali per lo sviluppo dell’intelligenza artificiale, rallentando così la crescita delle economie meno performanti su questo fronte, molte delle quali in Europa. La “guerra fredda tecnologica”, con standard e protocolli dell’intelligenza artificiale diversi da una regione all’altra, rende molto difficile integrare e utilizzare tecnologie esterne, limitando le collaborazioni internazionali. Alimenta, inoltre, le minacce alla sicurezza e alla privacy dei dati. Infine, è causa dell’esacerbarsi della separazione tra settore pubblico e privato. C’è un dato eclatante che dimostra quest’ultimo punto. Fino al 2014 i sistemi di apprendimento automatico venivano sviluppati principalmente – se non esclusivamente – dal mondo accademico, grazie a fondi pubblici. Negli ultimi dieci anni invece l’industria ha assunto una posizione di gran lunga dominante. Nel 2022, il settore industriale ha prodotto 32 modelli di apprendimento automatico, mentre il mondo accademico ne ha prodotti appena 3. Non è un problema in sé il fatto che l’industria sia così attiva. Il problema è che il pubblico e la ricerca scientifica non riescono a tenere il passo, abdicando alla possibilità di sviluppare innovazioni a miglior impatto sociale.

Veniamo alla sostenibilità. Ogni giorno vengono generati oltre 402 terabyte di dati digitali, l’equivalente di oltre duecento milioni di miliardi di pagine in formato A4. Questa gigantesca mole di informazioni, fondamentale per addestrare e alimentare i modelli di linguaggio di grandi dimensioni, ha un costo energetico insostenibile. Qualcuno stima che l’intera industria dell’intelligenza artificiale potrebbe trovarsi ad affrontare una carenza di dati di alta qualità già nel 2026. Più i modelli di linguaggio diventano sofisticati e maggiore è il numero di dati di cui hanno bisogno. Per cui la scarsità di dati di elevata qualità diventa un tema particolarmente preoccupante in settori critici come la sanità e la giustizia, dove la possibilità di prendere decisioni basate su modelli di intelligenza artificiale e offrire un servizio migliore ai cittadini deve essere garantita dalla certezza di decisioni corrette e non discriminatorie.

Soluzioni certe al problema non esistono. Alcune aziende – tra queste Google – riconvertono la produzione virando verso l’energia nucleare, unica in grado di sostenere i volumi di consumo necessari. Altre sperimentano il cd. “frugal machine learning”, che focalizza l’apprendimento dei Large Language Models sull’ottimizzazione delle risorse e sulla riduzione dei costi, mantenendo al contempo un’elevata precisione nei risultati. Questo tipo di approccio, tuttavia, ha i suoi limiti. Finora si è rivelato molto utile soprattutto in quei contesti in cui le risorse computazionali sono limitate, come ad esempio nei dispositivi indossabili e nell’Internet delle Cose

In ogni caso, nulla a che vedere con l’attività delle pubbliche amministrazioni. Le “responsabili”, se così vogliamo chiamarle, rimangono principalmente le aziende private. Per il momento. Se infatti l’obiettivo è l’integrazione degli algoritmi nella funzione pubblica, quest’ultima diviene inevitabilmente garante di ultima istanza di processi al momento non sostenibili. A maggior ragione se l’obiettivo è moltiplicare gli investimenti. Negli ultimi quattro anni (2018-terzo trimestre del 2023) in Europa sono stati investiti quasi 32,5 miliardi di euro in aziende di intelligenza artificiale dell’UE. Al netto deli oltre 120 miliardi di euro investiti in aziende di intelligenza artificiale statunitensi, l’Europa, esortata dal Rapporto Draghi cerca oggi soluzioni per proiettarsi nella competizione globale per le nuove tecnologie, liberandosi per sempre dall’etichetta di “fabbrica delle regole”.

È questa la mitologia di un’amministrazione pubblica ad elevato tasso di automazione. Ambiziosa negli obiettivi, ma carente nelle competenze che mette al loro servizio. Incapace di un approccio regolatorio uniforme e tesa a metà tra l’obiettivo della sostenibilità e quello della competizione.

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0