Che oggi una gran parte della attività illecite sia posta in essere con l’ausilio, se non direttamente attraverso, strumenti di Intelligenza Artificiale è ormai noto (basti pensare alle frodi online o agli abusi di mercato posti in essere da particolari algoritmi, noti come high frequency trading, per citarne solo alcuni). I soggetti che nei vari ordinamenti si occupano di law enforcement non devono, dunque, trovarsi impreparati di fronte a tale fenomeno. Il Report redatto dall’INTERPOL e dall’UNICRI analizza le possibili applicazioni dell’Intelligenza Artificiale all’attività di law enforcement, evidenziandone le numerose opportunità senza, al contempo, tralasciarne i rischi.
Di recente l’INTERPOL e l’UNICRI (United Nations Interregional Crime and Research Institute) hanno pubblicato un Report in materia di AI, Robots e Law Enforcement, avente ad oggetto l’analisi dei possibili rischi e delle opportunità legati all’utilizzo dell’Intelligenza Artificiale nella lotta alla criminalità. Il Report raccoglie le conclusioni di una conferenza tenutasi a Singapore nel Luglio 2018, in cui Interpol e Unicri hanno riunito rappresentanti delle law enforcement agencies dei vari Paesi partecipanti, rappresentanti del mondo industriale e del mondo accademico al fine di analizzare lo stato dell’arte dell’utilizzo delle nuove tecnologie nei diversi ordinamenti e di delinearne i possibili sviluppi.
Partendo dalla considerazione per cui “crime has gone high tech”, il Report sottolinea come nuove forme di criminalità connesse all’utilizzo distorto delle AI sono già da tempo particolarmente diffuse: basti pensare alle varie tipologie di cyber-attack, alla diffusione di fake news con l’obiettivo di creare o inasprire l’instabilità politica, agli strumenti di modifica dei documenti (face swapping e spoofing tools) volti a comprometterne la validità e via dicendo.
Se, dunque, le attività criminose sono sempre più technology-oriented, ne consegue che le autorità di controllo devono essere in grado di affrontare queste nuove sfide e, soprattutto, di utilizzare a proprio vantaggio gli innovativi strumenti tecnologici per prevenire e reprimere la criminalità. Due sono, difatti, gli aspetti evidenziati nel Report che determinano la necessità di introdurre strumenti di intelligenza artificiale nelle attività di law enforcement.
Da un lato, viene in rilievo una sorta di “asimmetria tecnologica” in cui le autorità di polizia e di controllo verrebbero a trovarsi rispetto ai gruppi criminali. Il Report evidenzia, in particolare, un diffuso “expertise gap” che deve necessariamente essere colmato per evitare che le autorità “restino indietro”.
Quanto all’utilizzo delle AI per l’attività di law enforcement, il Report osserva come tale attività sia “information-based”, fondandosi in gran parte sulla raccolta e l’analisi di numerose informazioni. Il ricorso alle nuove tecnologie può divenire allora essenziale per garantire una sistematizzazione e un’analisi di tali dati più efficiente. Tale analisi potrebbe essere anche di tipo predittivo, ove si faccia ricorso a tecniche di machine learning, individuando, ad esempio, sulla base dei dati raccolti, i trend illeciti più frequenti e ottimizzando le risorse in base ai relativi outcome (si parla, a tal proposito, di “predictive policing”).
Il Report contiene anche l’esame di alcune delle possibili applicazioni pratiche delle nuove tecnologie per l’attività di law enforcement. Tra i vari ambiti individuati vale la pena ricordare: strumenti di autopsia avanzati che identificano le cause di decesso; strumenti predittivi di individuazione dei trend illeciti più frequenti; software di computer vision per i furti d’auto e altre forme di riconoscimento facciale; strumenti automatizzati che identifichino e sanzionino in via autonoma i truffatori online; strumenti di machine learning per l’analisi delle conversazioni telefoniche; sistemi di sorveglianza basati sull’utilizzo dei droni.
Il Report, infine, si sofferma su alcune delle questioni problematiche di carattere etico legate all’utilizzo delle nuove tecnologie nella law enforcement, in particolar modo per quel che attiene alla tutela della privacy dei cittadini. In tale prospettiva, si sostiene che l’applicazione di strumenti di intelligenza artificiale alla law enforcement dovrebbe avvenire in maniera tale da garantire fairness, accountability, transparency ed explainability delle relative attività.
Le AI, dunque, dovrebbero essere applicate in questo settore tenendo sempre in considerazione alcuni principi di diritto fondamentali, quali quelli del giusto procedimento, della presunzione di innocenza, della libertà di espressione e della non discriminazione. L’attività di enforcement deve, inoltre, essere accountable nei confronti della comunità e in tale direzione si pongono anche le caratteristiche della trasparenza e dell’explainability, tutte volte a far sì che i processi decisionali che sono alla base dello svolgimento delle varie attività, nonché delle misure eventualmente adottate, siano conoscibili e comprensibili all’esterno.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.