Gli studiosi si aspettano che l’uso dei sistemi ADM (Automated Decision-Making systems, oppure sistemi ADM), oltre ad ampliare la trasparenza delle decisioni amministrative, permetta la pronuncia di decisioni coerenti e prevedibili, realizzando l’ideale di uguaglianza dinanzi alla legge.
È già noto che questi sistemi non sono neutri e, a volte, le decisioni storicamente adottate per casi diversi, divergono. Diventa allora necessario comprendere se questa divergenza ha ragione di esistere, attraverso test periodici. Infatti, i dati sono storici e naturalmente le decisioni saranno anch’esse storiche, come succede in qualsiasi processo di apprendimento. Gli algoritmi complessi possono anche riprodurre, in un certo senso, i pregiudizi sociali nascosti nei dati, amplificando gli effetti dannosi.[1] Quindi, la produzione e la raccolta democratica di dati sono già preoccupazioni da considerare.
Inoltre, non sempre i danni causati dall’uso dei sistemi ADM derivano da questioni tecniche, ma dal design del software. La responsabilità, in questi casi, è direttamente tanto degli esperti del settore, quanto degli amministratori pubblici che dovrebbero presentare i requisiti per fare in modo che il programma rispetti i precetti legali. Fra le soluzioni trovate per rendere più armoniosa questa relazione, ci sono la formazione dei professionisti con competenze multidisciplinari, di team eterogenei e la creazione di standard, modelli e direttrici per assicurare lo sviluppo di programmi etici[2]. I programmatori, allora, vedrebbero la propria condotta vincolata all’osservanza di questi standard, previsti nella normativa o nel contratto[3].
In effetti, molte scelte adottate in merito al “disegno” del programma e della policy pubblica, influenzano il servizio dell’algoritmo rispetto ai diritti umani fondamentali, particolarmente quelli di uguaglianza, di piena difesa, di accesso alla giustizia e in materia di privacy. Infatti, all’interno di questo spazio, sarà definito: (i) l’uso di algoritmi complessi, o meno, e se essi saranno supervisionati; (ii) la modalità in cui svolgere i test del programma; (iii) quale banca dati utilizzare per la formazione, così come per i test; (iv) se i test potranno prevedere la partecipazione dei rappresentanti della società civile e in quali forme essi potranno contribuire o esigere chiarimenti; (v) il grado di automazione della decisione, i termini di integrazione o ratifica da parte di un essere umano responsabile; (vi) i mezzi di impugnazione della decisione e di rettificazione e attualizzazione dei dati; (vii) il controllo dell’interessato sui dati usati dal sistema; (viii) la motivazione della decisione, quando è possibile; (ix) il controllo periodico[4], anche mediante nuove banche dati, e i legittimati a richiederlo; (x) la divulgazione del margine di errore del sistema, se possibile; (xi) lo sviluppo di meccanismi per l’individuazione e il trattamento degli errori[5].
L’esperienza internazionale rivela, inoltre, l’importanza della partecipazione della società civile e delle istituzioni (come l’Autorità per la Protezione dei Dati, i mass-media o anche l’Ombudsman) per combattere gli effetti nocivi dei sistemi ADM, garantendo una creazione più adeguata dei programmi. Misure proattive, e non solo reattive, sono fondamentali per l’effettiva protezione dei diritti, dal momento che è necessaria attenzione nei confronti dei cittadini (anche nella fase che precede il progetto pilota e in quella dell’entrata in funzione del programma)[6].
Concludendo, è raccomandabile anche la creazione di centri indipendenti composti da esperti in ADM, sia per finalità di ricerca che per fornire supporto al settore pubblico per lo sviluppo di politiche nazionali in materia, così come anche per aiutare a creare competenze e abilità necessarie al funzionamento dei settori pubblico e privato[7]. In aggiunta, si impone l’utilizzo di un linguaggio accessibile, prevedendo lo sviluppo di programmi di alfabetizzazione digitale[8].
[1] G. Avanzini, Decisioni amministrative e algoritmi informatici, cit., p. 24.
[2] L. B. Moses, M. Zalnieriute e G. Williams, The Rule of Law and Automation of Government Decision-Making, cit., p. 19.
[3] L. B. Moses, M. Zalnieriute e G. Williams, The Rule of Law and Automation of Government Decision-Making, cit., p. 19.
[4] L. B. Moses, M. Zalnieriute e G. Williams, The Rule of Law and Automation of Government Decision-Making, cit., p. 22.
[5] L. B. Moses, M. Zalnieriute e G. Williams, The Rule of Law and Automation of Government Decision-Making, cit., p. 22.
[6] F. Chiusi, Life in the automated society: How automated decision-making systems became mainstream, and what to do about it, cit., p. 9.
[7] F. Chiusi, Life in the automated society: How automated decision-making systems became mainstream, and what to do about it, cit., p. 13.
[8] F. Chiusi, Life in the automated society: How automated decision-making systems became mainstream, and what to do about it, cit., p. 13.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale