Le tecniche di riconoscimento facciale sono utilizzate con sempre maggiore frequenza dalle forze dell’ordine, sia in Europa che nel resto del mondo. I movimenti di protesta seguiti alla tragica morte di George Floyd hanno però contribuito a rimettere in questione l’effettiva legittimità dell’impiego di tali tecnologie per finalità di ordine pubblico e di sicurezza.
Le tecnologie di facial recognition sono utilizzate sempre più frequentemente dalle forze dell’ordine, sia in Europa (per l’Italia v. in questo Osservatorio, V.Bontempi, Un’interrogazione parlamentare sull’uso del riconoscimento facciale in Italia: il caso S.A.R.I.) che nel resto del mondo.
Oltre che per finalità di verifica ed identificazione (sia one-to-one che one-to-many), sia in differita che in tempo reale, tali dispositivi cominciano ad essere sperimentati anche in funzione predittiva, ossia per intercettare possibili crimini prima che essi siano materialmente commessi.
Numerosi studi – tra cui quello del M.I.T. e del National Institute of Standards and Technology – hanno, però, messo in evidenza come i software di riconoscimento facciale non siano affatto infallibili quando si tratti di riconoscere persone di sesso femminile, anziani o appartenenti a minoranze etniche.
Inoltre, nonostante i progressi registrati da quando – nel 2015 – il software Google Photos ha etichettato un’immagine di due persone di colore come “gorilla”, anche la percentuale di correlazioni spurie e pregiudizi razziali resta tutt’ora significativa.
Ambedue gli ordini di problemi dipendono principalmente dalla mancanza di diversità delle immagini utilizzate nei dataset sottostanti nonché dai pregiudizi soggettivi dei programmatori e di coloro che etichettano tali immagini.
Soprattutto in materia di ordine pubblico e sicurezza, i falsi positivi dei software di riconoscimento facciale determinano conseguenze tutt’altro che marginali.
Nel mese di gennaio, l’americano Robert Williams è stato trattenuto in arresto per oltre 24 ore perché il software di riconoscimento facciale della polizia di Detroit aveva confuso il suo volto con quello di un rapinatore ripreso da una telecamera a circuito chiuso. Si è trattato del primo caso noto – ma probabilmente non l’unico, secondo l’American Civil Liberties Union – di un uomo ingiustamente arrestato a causa di un errore del software di riconoscimento facciale.
Il fatto che Robert Williams abbia dovuto farsi carico di provare la propria innocenza, dimostrando che il computer si fosse sbagliato, rivela un secondo aspetto preoccupante: se utilizzati come unica base per l’arresto, i dispositivi di riconoscimento facciale determinano una vera e propria inversione dell’onere della prova a carico di colui il quale sia stato per errore identificato dal software come un sospetto, conseguentemente rimodulando “the ideal from presumed innocent” to “people who have not been found guilty of a crime yet”.
D’altro canto, un maggior numero di falsi positivi per le minoranze significa – come è stato osservato – che esse si trovino a dovere sostenere la maggior parte delle ripercussioni negative della sorveglianza facciale, mentre è probabile che gli eventuali benefici di tali bias vadano a tutto vantaggio della restante parte della popolazione.
Dopo la tragica morte di George Floyd durante un fermo di polizia a Minneapolis, in una lettera al Congresso USA l’Amministratore delegato di IBM Arvid Krishna ha annunciato che l’azienda non farà più ricerca né venderà prodotti legati alle tecnologie di riconoscimento facciale fino a quando non verrà aperto un dibattito nazionale sull’impiego di tali tecnologie in materia di sicurezza pubblica. A distanza di pochi giorni, Amazon e Microsoft hanno annunciato una temporanea moratoria alla vendita dei propri software di riconoscimento facciale alle forze dell’ordine, al contempo invocando un quadro regolatorio preciso che disciplini l’implementazione di tali dispositivi.
Queste prese di posizione – poco più che simboliche, posto che nessuno dei tre rientra tra i big players del settore – hanno però contribuito a stimolare il dibattito pubblico sul tema dell’effettiva legittimità dell’utilizzo di tali dispositivi, soprattutto in materia di law enforcement (sulla prima pronuncia giudiziale in tema di utilizzabilità delle tecniche di riconoscimento facciale da parte della polizia, v. in questo Osservatorio, S. Del Gatto, Quali regole per le nuove tecnologie di riconoscimento facciale? La Corte di Giustizia di Cardiff si pronuncia per la legittimità dell’uso di tecniche di Automated Facial Recognition da parte della Polizia del Galles).
Oltre al già menzionato problema dei bias etnici, occorre considerare che il riconoscimento facciale risulta intrinsecamente pervasivo: più di ogni altro dato biometrico, il volto – “il modo in cui si presenta l’Altro”, secondo il filosofo Emmanuel Lévinas – è un potente rilevatore dell’identità personale. Soprattutto nella caratterizzazione onlife che la vita moderna ha assunto, il volto può costituire – incrociando tra loro i dati contenuti nei diversi database – il filo di Arianna per ricostruire la storia personale del soggetto “catturato” dal dispositivo di riconoscimento facciale.
In secondo luogo, tale tecnologia pone – in termini qualitativamente diversi rispetto agli operatori privati, cui si applicano pur sempre le limitazioni previste dall’art. 9 del GDPR – un problema di tutela della privacy e di effettività del consenso. A differenza di altri dati biometrici, quali il DNA e le impronte digitali, la raccolta delle immagini del volto può infatti avvenire non solo senza il consenso degli interessati, ma addirittura senza che essi abbiano neppure percezione che la propria immagine sia stata registrata.
Infine, non possono essere sottovalutate le ripercussioni indirette che l’utilizzo indiscriminato di tali tecnologie possono sortire rispetto ai diritti e alle libertà civili: anche la sola eventualità di una sorveglianza invisibile da parte delle autorità di pubblica sicurezza rischia di comprimere l’esercizio delle libertà civili (in primis quella di riunione e di manifestazione del pensiero) nella misura in cui le persone possono essere portate ad agire diversamente nel timore di essere sorvegliate.
In questo senso, come è stato osservato, la sorveglianza condotta con sistemi di riconoscimento facciale rischia di essere intrinsecamente oppressiva.
In controtendenza rispetto alla Cina e agli Stati Uniti, le istituzioni dell’Unione europea stanno sollevando crescenti preoccupazioni sull’utilizzo delle tecnologie di riconoscimento facciale e sulla relativa compatibilità con i diritti fondamentali, specie in materia di law enforcement (v. in questo Osservatorio S. Del Gatto, Riconoscimento facciale e diritti fondamentali: quale equilibrio?).
Nel Libro Bianco sull’IA pubblicato nel mese di febbraio 2020, la Commissione ha segnalato che “la raccolta e l’uso di dati biometrici per l’identificazione remota, ad esempio attraverso diffusione del riconoscimento facciale in luoghi pubblici, comporta rischi specifici per i diritti fondamentali”, raccomandando agli Stati membri l’utilizzo dell’IA ai fini di identificazione biometrica “unicamente ove tale uso sia debitamente giustificato, proporzionato e soggetto a garanzie adeguate”.
Le preoccupazioni espresse dalla Commissione europea sono tanto più condivisibili in materia di pubblica sicurezza, sia per i valori sul campo di gioco che per l’attitudine naturalmente pervasiva della sorveglianza.
Consentire l’uso indiscriminato di tali tecnologie in materia di pubblica sicurezza significa esporre i cittadini ad una sorveglianza permanente che – anche ove resti a livello potenziale – già sortisce l’effetto di comprimere i diritti e le libertà civili fondamentali.
Un detto mandingo recita “Quando sei nato non puoi più nasconderti”. E ciò rischia di essere letteralmente vero ove si consenta l’uso indiscriminato delle tecniche di facial recognition da parte delle autorità di pubblica sicurezza.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.