Vai a leggere questa analisi dei dati che scopre l'algoritmo difettoso della polizia predittiva

0
27

Gizmodo ha rilasciato uno sguardo approfondito sul processo di raccolta dati dietro la sua indagine co-segnalata con The Markup in PredPol, una società di software specializzata in polizia predittiva (da cui il nome, che da allora è cambiato in Geolitica) attraverso l'apprendimento automatico.

L'algoritmo di PredPol dovrebbe fare previsioni basate su rapporti di criminalità esistenti. Tuttavia, poiché i crimini non vengono segnalati allo stesso modo ovunque, le letture fornite alle forze dell'ordine potrebbero semplicemente copiare i pregiudizi nella segnalazione su ciascuna area. Se la polizia lo usa per decidere dove pattugliare, potrebbe finire per sorvegliare eccessivamente le aree che non hanno bisogno di una presenza più ampia.

Quando Gizmodo e The Markup hanno valutato le aree, hanno scoperto che i luoghi presi di mira dal software di PredPol per un aumento delle pattuglie “avevano maggiori probabilità di ospitare neri, latini e famiglie che avrebbero diritto a il programma federale per il pranzo gratuito e ridotto”.

23 delle 38 forze dell'ordine monitorate non sono più clienti PredPol

Anche se le tattiche della polizia si sono evolute per includere dati su crimini e arresti, c'è stata una disparità storica nel modo in cui queste tattiche influenzano le comunità di colore. Come sottolinea Gizmodo nella sua analisi, a New York negli anni '90, i ricercatori dell'epoca scoprirono che i metodi riducevano la criminalità senza semplicemente spostarla in altre aree. Tuttavia, l'approccio includeva tattiche come stop-and-frisk, che sono state criticate come violazioni dei diritti civili.

L'algoritmo di PredPol è già stato esaminato e criticato dagli accademici più di una volta. Come ha citato Vice Suresh Venkatasubramanian, membro del consiglio di amministrazione di ACLU Utah, nel 2019:

“Poiché questi dati vengono raccolti come sottoprodotto dell'attività di polizia, le previsioni fatte sulla base dei modelli appresi da questi dati non riguardano i casi futuri di criminalità nel complesso”, osserva lo studio di Venkatasubramanian. “In questo senso, la polizia predittiva è giustamente chiamata: prevede la polizia futura, non il crimine futuro.”

Tuttavia, non c'è stata un'indagine così approfondita come Questo. Questa indagine ha utilizzato dati ricavati da dati pubblici disponibili via web. Secondo Gizmodo e The Markup, hanno trovato un database cloud non protetto collegato al sito web del dipartimento di polizia di Los Angeles. Quei dati contenevano milioni di previsioni che risalgono a diversi anni.

Oltre a prevedere i crimini individuali, un rapporto del 2018 di The Verge ha esaminato la ricerca finanziata dal Pentagono del fondatore di PredPol, Jeff Brantingham, sull'utilizzo del software per prevedere i crimini legati alle gang. L'ex professore di antropologia dell'Università della California-Los Angeles ha adattato ricerche precedenti sulla previsione delle vittime sul campo di battaglia in Iraq per creare la piattaforma, e il documento – “Partially Generative Neural Networks for Gang Crime Classification with Partial Information” – ha sollevato preoccupazione per le implicazioni etiche.< /p>

I critici hanno affermato che questo approccio potrebbe fare più male che bene. “Stai creando algoritmi partendo da una falsa narrativa che è stata creata per le persone – la documentazione della banda è lo stato che definisce le persone in base a ciò in cui credono … Quando lo colleghi al computer, ogni crimine sarà correlato alla banda, ” ha dichiarato l'attivista Aaron Harvey a The Verge.

Affidarsi ad alcuni algoritmi può funzionare magicamente per alcuni settori, ma il loro impatto può avere un vero costo umano. Con dati errati o parametri errati, le cose possono andare storte rapidamente, anche in circostanze meno gravose delle forze dell'ordine. Non guardare oltre Zillow, che di recente ha dovuto chiudere la sua operazione di capovolgimento della casa dopo aver perso centinaia di milioni di dollari nonostante i “modelli di prezzo e l'automazione” che pensava avrebbero fornito un vantaggio.

Nel complesso , Gizmodo e il report di The Markup è una buona considerazione di come gli algoritmi predittivi possono influenzare in modo significativo le persone inconsapevolmente prese di mira da loro. L'analisi di accompagnamento di Gizmodo fornisce informazioni sui dati rilevanti mentre offre ai lettori uno sguardo dietro le quinte su queste misure. Il rapporto indica che 23 delle 38 forze dell'ordine monitorate non sono più clienti di PredPol, nonostante inizialmente si fosse registrato per aiutare a distribuire risorse per fermare la criminalità. Forse utilizzando metodi che creano trasparenza e fiducia da entrambe le parti, le forze dell'ordine potrebbero dedicare meno tempo alla tecnologia che porta a pezzi come questo, il che evidenzia l'approccio esattamente opposto.

LEAVE A REPLY

Please enter your comment!
Please enter your name here