Nello Stato di Singapore l’uso della tecnologia di riconoscimento facciale, già diffusa, è stata ulteriormente implementata. SingPass, uno dei programmi di identità digitale nazionale più avanzati al mondo, utilizzato dai residenti per fruire di numerosi servizi digitali, tra cui l’accesso alle dichiarazioni dei redditi e la richiesta di alloggi pubblici, si avvale infatti, ora della tecnica biometrica, nota come facial recognition. A fronte dei numerosi benefici per l’amministrazione e per il cittadino, tuttavia, l’uso di tale tecnica pone importanti questioni per la tutela dei diritti fondamentali e per il rischio di errori o discriminazioni.
Nello Stato di Singapore l’uso della tecnologia di riconoscimento facciale, già diffusa, è stata ulteriormente implementata. SingPass, uno dei programmi di identità digitale nazionale più avanzati al mondo, utilizzato dai residenti per fruire di numerosi servizi digitali, sia privati, sia governativi (tra cui l’accesso alle dichiarazioni dei redditi e la richiesta di alloggi pubblici), si avvarrà ora, della verifica facciale. Il lancio della nuova funzione, denominata SingPass Face Verification, fa parte dell’iniziativa Smart Nation da 2,4 miliardi di dollari (1,75 miliardi di dollari USA) del governo, lanciata nel 2014, per la digitalizzazione dei servizi governativi (dai sistemi di pagamento senza contanti, all’illuminazione stradale con sensori). Il nuovo sistema è stato sviluppato congiuntamente da iProov, un fornitore di autenticazione biometrica con sede nel Regno Unito e un fornitore di piattaforma di servizi per il governo digitale con sede a Singapore.
La capacità di un individuo di identificarsi e di consentire a governi e imprese di convalidare tale identità è cruciale per l’efficace funzionamento di un’economia digitale. I sistemi nazionali di identità digitale, in particolare, appaiono centrali per la digitalizzazione dell’amministrazione. Gli Stati che sfruttano le tecnologie emergenti possono fornire servizi più efficienti, riducendo i costi e liberando risorse da investire proprio in nuove infrastrutture digitali. A ciò si uniscono i rilevanti benefici che tali tecniche possono generare nel settore della pubblica sicurezza, dove ad esempio, l’uso del riconoscimento facciale può aiutare nell’individuare sospettati e trovare persone scomparse.
Per queste ragioni, negli ultimi anni, si sta assistendo, a livello globale, alla diffusione esponenziale (ulteriormente spinta dall’emergenza pandemica) di sistemi di riconoscimento e di verifica facciale. L’utilizzo di queste tecnologie, in particolare da parte delle pubbliche amministrazioni, pone, tuttavia, a fronte dei numerosi vantaggi, una serie di questioni etico-giuridiche.
Un primo problema è rappresentato dal rischio errori o discriminazioni legati alla razza o al genere. Il rapporto NIST Interagency 8280, del dicembre 2019, ha evidenziato che la maggior parte degli algoritmi di riconoscimento facciale presentano ancora un’elevata percentuale di falsi positivi e, sebbene in misura minore, di falsi negativi, soprattutto quando ci si riferisce a persone dell’Africa occidentale e orientale e dell’Asia orientale. Gli algoritmi sviluppati in Cina mostrano lo stesso effetto, ma invertito, con bassi tassi di falsi positivi sui volti dell’Asia orientale. Negli Stati Uniti, gli algoritmi utilizzati dalle forze dell’ordine rivelano falsi positivi più alti negli indiani d’America, con tassi elevati negli individui di origine africana.
Un secondo problema attiene alle possibili violazioni della privacy (sul rapporto tra riconoscimento facciale, privacy e diritti fondamentali si vedano su questo osservatorio qui e qui) e al fatto che nel riconoscimento facciale (a differenza che nella verifica facciale) l’acquisizione di dati avviene senza loro consenso degli interessati. Più in generale, in tema di trattamento dei dati, rilevano le questioni relative all’uso dei dati e alle finalità dello stesso; ai soggetti che hanno accesso a tali dati e ai limiti, anche temporali, per il loro trattamento.
Un terzo problema, ancora, strettamente connesso ai primi due, è rappresentato dal rischio che la diffusione di tecnologie di controllo facciale degeneri, in assenza di adeguati limiti, in forme di controllo di massa. Rischio questo reso particolarmente concreto nell’attuale periodo di emergenza sanitaria (si pensi all’uso di tecniche di riconoscimento facciale per monitorare la diffusione del virus).
Sulla soluzione di questi problemi pesa, nella gran parte dei Paesi, la mancanza di una disciplina organica della materia che tuteli gli interessati e che stabilisca i limiti per privati e pubblici poteri per l’uso delle nuove tecnologie di riconoscimento facciale. Mentre, tuttavia, nell’Unione europea il GDPR offre significative garanzie per il trattamento dei dati, anche biometrici, e la tutela dei diritti dell’interessato, compreso il diritto alla privacy, nel resto del mondo, non sempre si rinvengono adeguate cornici normative. In assenza di un quadro regolatorio comune, negli USA, ad esempio, gli Stati hanno proceduto in ordine sparso e disomogeneo (tra quelli che hanno una regolazione ad hoc, si vedano Washington (su cui, su questo Osservatorio, si veda qui); l’Illinois con Illinois Biometric Protection Act (BIPA) del 2008; il Texas che ha approvato una legge sulla privacy biometrica nel 2017; la California, con il California Consumer Privacy Act).
A conferma della compresenza nel campo del riconoscimento facciale, di rischi e benefici e dell’esigenza di operare un necessario bilanciamento tra valori in conflitto, la Commissione europea (Libro bianco sull’intelligenza artificiale pubblicato nel febbraio 2020 su cui, su questo Osservatorio, si veda qui), pur non vietando il riconoscimento facciale, come inizialmente paventato, lo ha inserito tra le applicazioni ad alto rischio. Per questo, la scelta di ricorrere a tali tecnologie dovrà essere debitamente giustificata, proporzionata e soggetta a garanzie adeguate (sulla necessità di garanzie procedimentali in caso di utilizzo del riconoscimento facciale da parte della polizia, si veda, su questo Osservatorio, qui).