Cresce la consapevolezza intorno al fenomeno della violenza di genere, ma non decrescono assalti e abusi. In che modo le tecnologie possono aiutare a prevenire crimini odiosi e tutelare le vittime? La Spagna ha sperimentato con discreto successo un sistema che analizza diverse variabili e stima il rischio cui si trova suo malgrado esposta una donna, consentendo alle forze dell’ordine di approntare adeguate misure preventive. Basta?
Un termine crudo designa un fenomeno drammatico: femminicidio. È un vocabolo che si deve alla scrittrice e attivista Diana Russell, dal libro-manifesto Femicide: The Politics of woman killing. Individua, con lucida esattezza, l’uccisione di una donna per mano di un uomo in un contesto sociale che ammette e avalla la violenza di genere.
In Italia, i numeri freddi delle statistiche raccontano che i femminicidi non accennano a diminuire, contrariamente agli omicidi totali, costituendo il 38% di tutti quelli commessi nel 2018. Si tratta di casi che per l’85% si verificano in famiglia, per un terzo si pongono al culmine di maltrattamenti già noti e per più della metà delle volte avvengono per mano del partner o dell’ex partner. Si tratta, come a tutti amaramente noto, della punta di un iceberg: ogni 10,000 donne, in Italia, almeno 16 si sono rivolte a un centro antiviolenza, e 29,000 hanno iniziato, solo nel 2017, un percorso di progressiva uscita da un contesto di soprusi.
In che modo la tecnologia e il diritto possono incontrarsi nella lotta a questo fenomeno? Esistono strumenti per indirizzare la prevenzione della violenza di genere e supportare azioni a tutela di chi subisca violenze dentro e fuori le mura domestiche? Quali sono i vantaggi e gli svantaggi, e quali rischi possono derivare da un uso diffuso degli algoritmi in una sfera delicata quale quella delle relazioni umane?
Un’esperienza significativa in materia, con alcune interessanti indicazioni, è quella della Spagna, dove, dal 2007, l’amministrazione di polizia impiega un sistema denominato Viogén (Integral Monitoring System in Cases of Gender Violence) per il monitoraggio e la prevenzione della violenza di genere.
Viogén è un software basato su un sistema algoritmico tra i più sofisticati al mondo in questo campo. Fino all’inizio di quest’anno, oltre 600,000 casi sono stati sottoposti alla sua analisi, e più di un decimo hanno avuto come seguito l’attivazione di misure di monitoraggio periodico da parte delle forze dell’ordine a tutela delle vittime di violenze.
Il sistema viene impiegato in occasione della sottoposizione di una denuncia per maltrattamenti, abusi o minacce, e prevede un aggiornamento periodico delle informazioni relative al caso per tracciarne l’evoluzione. La persona denunciante è invitata a rispondere a una serie di domande, i cui esiti vengono incrociati con vari database di sicurezza. I quesiti riguardano la condotta dell’aggressore, le sue caratteristiche emotive, la tipologia e frequenza di eventuali aggressioni precedenti, gli aspetti di possibile vulnerabilità fisica o socioeconomica della vittima.
Le risposte vengono quindi vagliate da un algoritmo che attribuisce un punteggio ponderato per il rischio, eventualmente modificabile manualmente dall’agente di polizia. Il punteggio tiene conto di variabili che stimano la gravità del rischio alla luce dei risultati di specifici studi scientifici dedicati alla comprensione della violenza di genere. A ciascun profilo di rischio è poi associato un insieme di misure di monitoraggio e prevenzione di intensità crescente, tra cui il personale di polizia può individuare le più adatte al caso concreto: nei casi ritenuti più gravi, vengono attivate forme di tracciamento dei movimenti dell’aggressore e controlli frequenti presso i luoghi in cui la vittima sia solita recarsi.
Il sistema Viogén consente non soltanto di elaborare le risposte fornite dalla vittima, ma anche di integrare una pluralità di informazioni provenienti da vari archivi, in modo da costruire un profilo di rischio criminologico dell’aggressore il più completo possibile. La sua accessibilità è inoltre ampiamente diffusa sul territorio spagnolo, tema particolarmente significativo alla luce della frammentazione delle forze di polizia. Ciò permette di disporre di una quantità sempre più rilevante di informazioni utili all’adozione di misure preventive efficaci.
Funziona?
Un articolo del 2014 del quotidiano El Mundo ha rivelato come, in 14 casi di femminicidio su 15, l’algoritmo Viogén aveva assegnato un profilo di rischio basso al presunto aggressore, da cui era derivata la mancata attivazione di misure stringenti di monitoraggio, con esiti evidentemente drammatici. Per contro, uno studio del 2018 di vari ricercatori spagnoli ha dimostrato come il sistema presenti un’elevata attendibilità statistica, quasi equivalente a quella dei test di screening cancerogeno. Questa attendibilità è stata migliorata, negli anni, grazie al perfezionamento delle variabili in uso all’interno del sistema per stimare il rischio e consentire un monitoraggio più accurato.
Se il rischio di falsi positivi e, soprattutto, di falsi negativi è immanente a un sistema predittivo, la fiducia delle autorità spagnole nell’algoritmo è testimoniata dai progetti che ne vorrebbero estendere la “logica” ad altri odiosi fenomeni di violenza, dal bullismo ai crimini d’odio, dalle aggressioni ai soggetti con disabilità alla pedofilia. Le crude statistiche, però, indicano che non basta. I dati Eurostat riferiti al 2016 mostrano che, nonostante gli sforzi, la Spagna continua ad avere un tasso di omicidi volontari nei confronti delle donne rapportato alla popolazione più elevato di quello italiano, sebbene al di sotto della media Europea.
Ciò induce a osservare che la tecnologia, per quanto affinata e di sicuro supporto, non possa giungere dappertutto, sostituendosi alla capacità umana di leggere la realtà e reagire. Oltre che su una mole di dati accessibili a più di trentamila utenti, con rischi notevoli per la privacy alla luce dell’impossibile anonimizzazione, il sistema Viogén si basa su di un atto umano fondamentale: l’intenzione e la capacità della vittima di denunciare la violenza subìta e rivolgersi per tempo alle forze dell’ordine. Il suo stesso potenziamento richiede intrinsecamente la conoscenza e valutazione di una considerevole mole di casi per evolvere verso una migliore comprensione delle minacce future; al contempo, la “macchina” interagisce con l’uomo, e i suoi output non possono che costituire un’indicazione di massima cui deve accompagnarsi l’insostituibile comprensione della realtà effettiva da parte di chi possa offrire un aiuto concreto.
Si tratta, insomma, di un caso limite: ci ricorda che non tutti gli elementi potenzialmente rilevanti possono essere inclusi e stimati da un modello algoritmico con precisione assoluta, sol perché esiste, di sicuro, una zona d’ombra imperscrutabile: la volontà (e la barbarie) umana, nelle sue molte sfaccettature.