giovedì, Maggio 26, 2022

In Spagna un algoritmo valuta il rischio di violenza contro le donne. Ma ha fallito

Must Read

Questo articolo è stato pubblicato da questo sito

image

In Spagna esiste da quindici anni un sistema algoritmico che valuta il rischio di recidiva nell’ambito della violenza domestica. Si chiama VioGén, Sistema integrale di monitoraggio dei casi di violenza di genere, e viene utilizzato dal ministero dell’Interno dal 2007 su disposizione della Ley Organica 1 del 2004, che contiene misure per contrastare la violenza di genere. Il software utilizza i dati delle denunce per fare previsioni di rischio, analizzando le risposte delle persone che segnalano episodi di violenza alla polizia e assegnando un livello di protezione corrispondente in base alla gravità riscontrata. Queste previsioni, però, in alcuni casi possono creare gravi problemi. Una recente valutazione del modello effettuata da Eticas Consulting, una società che si occupa di auditing algoritmico, ha dimostrato che quando il rischio viene classificato come troppo basso le donne non ricevono aiuto

In base a quanto riporta il sito del ministero, l’obiettivo principale di VioGén è quello di integrare tutte le informazioni riguardanti le denunce per ottenere previsioni di rischio e proteggere le vittime su tutto il territorio nazionale. Lo scorso settembre, in un’intervista, uno degli ideatori del programma ha dichiarato che “VioGén ha aiutato ad avvisare la polizia di casi in cui c’è il rischio che un uomo possa agire di nuovo“. Secondo il ministero spagnolo, dopo il primo abuso le violenze ritornano e continuano nel 15% dei casi. A partire da questo dato è stato progettato e implementato l’algoritmo, con l’idea che, in presenza di alcuni indicatori specifici, un software possa essere in grado di prevedere quella percentuale di rischio e allertare la polizia

Al momento della denuncia, alle donne viene chiesto di compilare un modulo online contenente 39 domande a cui rispondere con “presente” o “non presente” (per esempio se c’è stata una violenza sessuale, se l’aggressore lavora, se dimostrava gelosia o aveva fatto uso di droghe). Attraverso modelli statistici classici, le risposte vengono poi tradotte in linguaggio matematico e, come nei più comuni sistemi predittivi, utilizzate per assegnare un punteggio di rischio (“non rilevato”, “basso”, “medio”, “alto”, “estremo”) a cui corrispondono diversi tipi di misure di aiuto e protezione della polizia: da semplici controlli fino alla dotazione di un sottosistema di notifica automatizzata in grado di emettere allarmi. Secondo dei dati del ministero dell’Interno del 2020, da quando VioGén è entrato in funzione nel 2007 sono stati registrati più di 500.000 casi di donne denuncianti. 

La valutazione del sistema

Nel 2018 Eticas Consulting ha condotto autonomamente e pubblicato un’analisi di impatto di VioGén, raccogliendo una serie di ipotesi legate al suo impatto sociale e a potenziali bias, dato il suo contesto applicativo molto delicato. Eticas si era poi offerta di sviluppare un audit interno pro bono, che tenesse conto dell’impatto concreto dell’algoritmo e del suo funzionamento prestando particolare attenzione al suo grado di efficienza per gruppi culturali, socio-economici e territoriali. Non avendo mai ricevuto riscontri dal ministero, dopo quattro anni di attesa la società ha deciso di realizzare un audit esterno: non potendo accedere al codice sorgente, l’analisi è stata condotta con metodi di ingegneria inversa. I risultati sono pubblici, insieme alla metodologia utilizzata.

L’analisi effettuata da Eticas è durata sette mesi e ha permesso di svelare alcuni potenziali problemi dell’algoritmo: ha rivelato, per esempio, che nel 2021 solo una donna su sette ha ricevuto aiuto dopo la denuncia. Gemma Galdon-Clavell, ad di Eticas Consulting, a Wired ha spiegato che “il bias più evidente è la tendenza alla sottovalutazione del rischio delle donne quando queste non hanno figli”. Ciò è emerso dall’audit esterno, e secondo Galdon-Clavell “sicuramente se avessimo avuto accesso ai dati interni avremmo potuto spiegare meglio cosa funziona e cosa non funziona, aiutando a mitigare i rischi: alla fine, l’obiettivo dell’audit non è criticare, ma generare uno spazio di accountability per quanto riguarda queste tecnologie”.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Il calcio inglese sostiene Jake Daniels e si pone una domanda: ha un senso andare ai Mondiali del Qatar?

Jake Daniels è un personaggio di cui non mi ero accorto prima della scorsa settimana, quando il diciassettenne centrocampista...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img