venerdì, Dicembre 9, 2022

Vent'anni fa, Minority Report aveva già capito perché la polizia predittiva avrebbe fallito

Must Read

Questo articolo è stato pubblicato da questo sito

Non solo: lo stesso meccanismo che porta Anderton faccia a faccia con il presunto assassino di suo figlio è una classica profezia che si autoavvera: il personaggio interpretato da Tom Cruise ripercorre il percorso che lo porterà in trappola proprio perché sta indagando sulla possibilità di essere stato incastrato. È un paradosso fantascientifico che mostra non tanto l’impossibilità di sfuggire al futuro, quanto di prevederlo. 

L’aspetto più sorprendente, però, è che quando si ha a che fare con l’intelligenza artificiale nel mondo reale le cose non poi così diverse. Il caso più impressionante è legato proprio all’uso della polizia predittiva. Nel 2013, l’algoritmo di intelligenza artificiale che aiutava le forze dell’ordine di Chicago a individuare potenziali sospetti aveva stimato che tale Robert McDaniel avesse il 99,9% di probabilità di venire coinvolto in una sparatoria, come aggressore oppure come vittima.

Da allora, McDaniel è stato effettivamente vittima due volte di aggressioni armate: nel 2017 e nel 2020, sopravvivendo a entrambe. Merito di un algoritmo degno dei precog? Secondo un’inchiesta condotta da The Verge, le cose sono andate molto diversamente: è stata proprio la previsione dell’algoritmo a condannare McDaniel. Com’è possibile? Stando alla ricostruzione, la segnalazione del sistema di polizia predittiva ha innescato una sorveglianza costante della polizia nei confronti di McDaniels, che però viveva in uno dei quartieri più problematici di Chicago. 

Vedendo la volante spesso davanti a casa sua, e senza che McDaniel fosse mai stato coinvolto in crimini particolari, gli abitanti del quartiere hanno iniziato a sospettare che potesse esserci una connessione di qualche tipo tra McDaniel e la polizia. Per esempio, che McDaniel potesse essere un informatore. Come scritto da Matt Stroud nella sua inchiesta, “la segnalazione dell’algoritmo ha provocato il danno che i suoi creatori speravano di evitare: ha previsto una sparatoria che non si sarebbe verificata se non fosse stata prevista. Non poi così dissimile da ciò che avviene in Minority Report con la trappola di Burgess.

Il tema delle profezie che si autoavverano, nella realtà della polizia predittiva, riguarda anche altri aspetti. Questi strumenti – che l’Unione europea potrebbe presto mettere al bando – tendono a creare dei circoli viziosi, in cui, per esempio, sempre più spesso le persone nere vengono fermate per controlli anche se non hanno fatto nulla (perché “statisticamente” hanno maggiori probabilità di essere criminali) e in cui i quartieri più difficili vengono pattugliati sempre di più, portando a un maggior numero di denunce e quindi a un pattugliamento ancora maggiore. Le statistiche, insomma, non fanno che rafforzare e giustificare un comportamento basato sulle statistiche stesse.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Getir si mangia i concorrenti di Gorillas

La turca Getir, l’azienda pioniera nella consegna a domicilio della spesa e attiva anche in Italia a Roma e...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img