Nel 2019 quasi la metà degli Stati al mondo ha utilizzato tecnologie di riconoscimento facciale per scopi di sorveglianza pubblica. Alla rapida implementazione di tali dispositivi non è però quasi mai corrisposto un parallelo sforzo di regolamentazione delle relative condizioni di impiego. A fronte dei molteplici aspetti controversi legati a tale tecnologia, già documentati da numerosi studi, è urgente avviare un dibattito pubblico che contribuisca alla definizione di quali forme di sorveglianza siano accettabili per una società (effettivamente) democratica.
Il riconoscimento facciale (in questo Osservatorio ne abbiamo discusso QUI e QUI) è una tecnologia che sta prendendo piede con straordinaria rapidità nella maggior parte dei Paesi del mondo. Secondo uno studio curato dall’istituto Carnegie Endowment for Insitutional Peace, nel 2019 il 43% degli Stati (precisamente 64 su un campione di riferimento di 176 Stati) ha utilizzato tecnologie di riconoscimento facciale per scopi di sorveglianza. Come emerge dal grafico sottostante, l’Asia orientale e pacifica è l’area in cui si registra – almeno fino ad ora – l’utilizzo più diffuso di tale tecnologia (quasi il 70% degli Stati la utilizzano), mentre nella regione dell’Europa e dell’Eurasia meno del 40% dei Paesi hanno adottato tecnologie di riconoscimento facciale per scopi di sorveglianza.
(fonte: Rapporto The Global Expansion of AI Surveillance a cura del Carnegie Endowment for Insitutional Peace, settembre 2019)
Ad approvvigionarsi di questo genere di tecnologia, e ad investire nella relativa implementazione, non sono soltanto sistemi autoritari. Anzi, il dato interessante che emerge dal Rapporto è che proprio le democrazie liberali sono i principali fruitori delle tecnologie di riconoscimento facciale, con un tasso di diffusione pari al 51% del campione totale, a fronte del più basso tasso del 37% registrato invece presso regimi di tipo autocratico. Questo vuol dire che uno Stato democratico su due utilizza dispositivi di riconoscimento facciale per scopi – anche in senso lato – di sorveglianza.
Tuttavia, alla frenetica implementazione di tali dispositivi non è quasi mai corrisposto, almeno fino ad ora, un parallelo sforzo di regolamentazione, di fatto lasciando campo libero alle singole autorità amministrative su come (e quanto) utilizzare i dispositivi di riconoscimento facciale nell’esercizio delle proprie funzioni.
Recentemente, anche a fronte del susseguirsi di alcuni episodi eclatanti – ad esempio, Robert Williams è stato trattenuto in arresto per oltre 24 ore perché il software di riconoscimento facciale della polizia di Detroit aveva confuso il suo volto con quello di un rapinatore ripreso da una telecamera a circuito chiuso (ne abbiamo parlato anche QUI) – diverse organizzazioni per la difesa dei diritti civili stanno contribuendo a gettare luce sui tanti aspetti controversi legati all’uso tale tecnologia da parte di pubblici poteri.
Lo scorso gennaio l’INCLO (International network of civil liberties organizations), un network che raccoglie quindici organizzazioni indipendenti a difesa dei diritti umani, ha pubblicato il rapporto In focus, che documenta tredici storie raccolte in altrettanti Stati del mondo, dall’Ungheria all’India passando per il Sudafrica e la Russia. Oltre al caso inglese AFR Locate (di cui si è già parlato nell’Osservatorio QUI e QUI), un altro esempio significativo documentato dal Rapporto di come il riconoscimento facciale possa essere utilizzato per finalità di sorveglianza di massa è rappresentato da Israele, dove i cittadini palestinesi in ingresso dalla Cisgiordania sono sottoposti ad una sistematica identificazione biometrica, effettuata con ogni probabilità anche per scopi di sorveglianza. Il riconoscimento facciale è ampiamente utilizzato anche in Russia dove, sempre secondo quanto riportato anche dal Rapporto, il FRT è stato utilizzato anche per identificare i partecipanti a manifestazioni di protesta anti-governativa.
Il lancio di questo strumento di sorveglianza globale – è questo il monito dell’INCLO – rischia di normalizzare pericolosamente le pratiche di sorveglianza pubbliche, mettendo correlativamente a repentaglio la privacy negli spazi pubblici, ma anche i diritti alla libertà di espressione, protesta e uguaglianza. A fronte di questa massiva raccolta di dati personali, nella maggior parte dei casi senza il consenso dell’interessato, si rivela più che mai essenziale aprire un serio dibattito pubblico, sull’effettiva necessità e proporzionalità dell’impiego di tale tecnologia.
Condividendo le medesime preoccupazioni, lo scorso febbraio il gruppo ReclamYourFace – sostenuto da numerose organizzazioni non governative europee – ha lanciato una petizione alla Commissione europea per chiedere una regolamentazione rigorosa dell’uso delle tecnologie biometriche al fine di evitare usi indiscriminati o arbitrariamente mirati della biometria che possono portare a una sorveglianza di massa illegale.
Ambedue le iniziative colgono un nodo centrale: data la potenza di questa tecnologia – e le ripercussioni su diritti e libertà di rango fondamentale – le scelte sulla relativa implementazione non possono essere prese al di fuori del circuito decisionale democratico. Piuttosto, come già evidenziato dalla CNIL francese alla fine del 2019, è cruciale avviare un dibattito pubblico su questo tema, definendo quali forme di sorveglianza siano veramente accettabili per una società democratica.
Il punto è che non tutto ciò che è tecnicamente possibile è anche eticamente e socialmente accettabile, e non tutte le possibilità tecniche valgono la pena di essere implementate in tutto la loro potenziale latitudine applicativa.
Invece che rincorrere la tecnica, la decisione politica – alimentata da un robusto dibattito democratico – dovrebbe farsi carico di determinare anche quale dei possibili usi di queste tecnologie siano realmente desiderabili e se, e a quali condizioni, diritti e libertà fondamentali possano tollerare una limitazione in nome di superiori esigenze pubblicistiche.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale