Il diritto alla privacy è, ancora una volta, oggetto di una rilevante pronuncia giurisprudenziale. Il 5 febbraio 2020 il tribunale distrettuale dell’Aia ha vietato l’utilizzo di Syri, un algoritmo impiegato nel digital welfare state olandese al fine di valutare l’inclinazione dei beneficiari di sussidi pubblici a commettere frodi o abusi.
L’emersione in numerosi paesi del mondo del digital welfare state ha comportato un incremento di diversi sistemi di protezione e assistenza sociale. Questi ultimi, in considerazione del sempre più capillare utilizzo di strumenti innovativi, impiegano inevitabilmente dati digitali e tecnologie al fine di individuare, identificare e sorvegliare i beneficiari privati, i quali, con i medesimi mezzi, possono essere anche rilevati e puniti. Al fine di essere dichiarati idonei a ricevere le agevolazioni pubbliche e per continuare a goderne, i soggetti devono fornire ingenti quantità di dati personali relativi al proprio impiego, alle condizioni di salute e allo stile di vita condotto. Non appena inclusi tra i beneficiari, i privati sono costantemente sorvegliati dallo Stato, che deve valutare la permanenza delle condizioni che hanno favorito la loro idoneità a ricevere i contributi pubblici: i soggetti possono essere chiamati a sottoporsi ad analisi relative alla propria condizione fisica e psicologica, a visite di controllo nel proprio domicilio senza preventiva comunicazione e a motivare l’acquisto di determinati alimenti o merci. Gli individui risultano, pertanto, costretti ad accettare una violazione del proprio diritto alla privacy e alla protezione dei dati personali in vista dell’accesso ai programmi di protezione sociale.
Per sei anni, dal 2014 fino al 5 febbraio 2020, il governo olandese ha utilizzato Syri (System Risk Indication), il “sistema indicatore di rischio”. Quest’ultimo è un algoritmo che attingeva dati sensibili da 17 database al fine di valutare l’attitudine a commettere frodi o abusi di coloro che percepiscono sussidi o altre forme di assistenza pubblica, a ciascuno dei quali veniva attribuito un “punteggio di rischio”. Tale sistema analizzava i soli dati dei cittadini (destinatari e non dei sussidi pubblici) delle città di Rotterdam, Eindhoven e Haarlem, più specificamente di coloro che erano collocati in quartieri ad alta densità di residenti con basso reddito, migranti e appartenenti a minoranze etniche. Soltanto queste sono le informazioni rese pubbliche circa il funzionamento dell’algoritmo: non si conoscono, infatti, la tipologia e la quantità di dati personali a disposizione delle autorità olandesi, il meccanismo con cui questi venivano incrociati né i parametri impiegati al fine di valutare il rischio. Gli stessi cittadini ritenuti inclini a raggirare il governo non erano a conoscenza della loro classificazione.
Alla luce di ciò, una coalizione di associazioni non governative olandesi per il benessere e i diritti digitali, tra cui anche la fondazione Privacy First, ha adito il tribunale distrettuale dell’Aia per verificare la legittimità dell’utilizzo di Syri in relazione alla tutela del diritto alla privacy di ogni cittadino. A riguardo, nel corso di tale causa, si è espresso, a titolo di amicus curiae, il relatore speciale delle Nazioni Unite, Philip Alston: nel suo brief egli ha contestato l’utilizzo sistematico nel welfare state delle tecnologie digitali in materia di diritti umani, manifestando notevoli dubbi sull’eccessiva attenzione rivolta dalle autorità olandesi, mediante l’algoritmo contestato, ai gruppi socialmente più vulnerabili. Proprio sulla base di tali motivazioni il tribunale ha vietato di impiegare ulteriormente Syri in quanto contrastante con l’articolo 8 della Convenzione Europea dei Diritti dell’Uomo, che tutela il diritto al rispetto della vita privata e familiare. L’algoritmo, inoltre, discriminava ingiustificatamente i cittadini meno abbienti e il suo funzionamento non era stato reso conoscibile in modo opportuno.
È, dunque, necessario che nell’attuazione dei programmi previdenziali i governi raccolgano e trattino i dati personali dei beneficiari dei servizi pubblici in modo proporzionato alle operazioni di controllo da svolgere. I soggetti più bisognosi di sussidi non devono essere posti nelle condizioni di poterli ottenere solo rinunciando al proprio diritto alla privacy: quest’ultimo, infatti, non può essere costantemente compresso in ragione delle innovazioni tecnologiche che pervadono i tempi moderni (come più volte accaduto anche utilizzando lo strumento del riconoscimento facciale).
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.