Lesen Sie diese Datenanalyse, die den fehlerhaften Algorithmus von Predictive Policing aufdeckt

0
153

Gizmodo veröffentlichte einen detaillierten Einblick in den Datenerhebungsprozess hinter seiner gemeinsam mit The Markup gemeldeten Untersuchung von PredPol, einem Softwareunternehmen, das sich auf prädiktive Polizeiarbeit spezialisiert hat (daher der Name, den es seitdem geändert hat .) Geolithica) durch maschinelles Lernen.

Der Algorithmus von PredPol soll Vorhersagen basierend auf bestehenden Kriminalitätsmeldungen treffen. Da Verbrechen jedoch nicht überall gleich gemeldet werden, könnten die den Strafverfolgungsbehörden bereitgestellten Messwerte einfach die Voreingenommenheit bei der Berichterstattung über jeden Bereich kopieren. Wenn die Polizei dies nutzt, um zu entscheiden, wo sie patrouillieren soll, könnte sie am Ende Bereiche überwältigen, die keine größere Präsenz benötigen.

Als Gizmodo und The Markup die Gebiete bewerteten, stellten sie fest, dass die Orte, an denen die Software von PredPol auf verstärkte Patrouillen abzielte, “mit größerer Wahrscheinlichkeit die Heimat von Schwarzen, Latinos und Familien sind, die sich dafür qualifizieren würden”. das kostenlose und reduzierte Mittagsprogramm des Bundes.“

23 der 38 verfolgten Strafverfolgungsbehörden sind keine PredPol-Kunden mehr

Selbst als sich die Polizeitaktiken weiterentwickelten, um Kriminalitäts- und Verhaftungsdaten einzubeziehen, gab es historische Unterschiede in der Art und Weise, wie sich diese Taktiken auf Farbgemeinschaften auswirken. Wie Gizmodo in seiner Analyse hervorhebt, fanden Forscher damals in New York in den 1990er Jahren heraus, dass die Methoden die Kriminalität reduzierten, ohne sie einfach in andere Bereiche zu verlagern. Der Ansatz beinhaltete jedoch Taktiken wie Stop-and-frisk, die als Verletzung der Bürgerrechte kritisiert wurden.

Der Algorithmus von PredPol wurde bereits mehr als einmal von Wissenschaftlern untersucht und kritisiert. Als Vice zitierte Suresh Venkatasubramanian, ein Mitglied des Board of Directors von ACLU Utah, im Jahr 2019:

„Da diese Daten als Nebenprodukt polizeilicher Aktivitäten erhoben werden, beziehen sich Vorhersagen auf der Grundlage von Mustern, die aus diesen Daten gelernt wurden, nicht auf zukünftige Kriminalitätsfälle im Allgemeinen“, stellt die Studie von Venkatasubramanian fest. „In diesem Sinne wird Predictive Policing treffend genannt: Es sagt die zukünftige Polizeiarbeit voraus, nicht die zukünftige Kriminalität.“

Trotzdem gab es noch keine so gründliche Untersuchung wie Dieses hier. Bei dieser Untersuchung wurden Zahlen verwendet, die aus öffentlichen Daten stammen, die über das Internet verfügbar sind. Laut Gizmodo und The Markup fanden sie eine ungesicherte Cloud-Datenbank, die von der Website des Los Angeles Police Department verlinkt war. Diese Daten enthielten Millionen von Vorhersagen, die mehrere Jahre zurückreichten.

Neben der angeblichen Vorhersage einzelner Verbrechen untersuchte ein Bericht von The Verge aus dem Jahr 2018 die vom Pentagon finanzierte Forschung des Gründers von PredPol, Jeff Brantingham, über die Verwendung der Software zur Vorhersage von Bandenkriminalität. Der ehemalige Anthropologie-Professor der University of California-Los Angeles adaptierte frühere Forschungen zur Vorhersage von Schlachtfeldopfern im Irak, um die Plattform zu schaffen, und das Papier – „Partially Generative Neural Networks for Gang Crime Classification with Partial Information“ – äußerte Bedenken hinsichtlich der ethischen Implikationen.< /p>

Kritiker sagten, dieser Ansatz könne mehr schaden als nützen. „Sie machen Algorithmen aus einer falschen Erzählung, die für Menschen geschaffen wurde – die Sache mit der Bandendokumentation ist der Zustand, der Menschen nach dem definiert, was sie glauben … Wenn Sie das an den Computer anschließen, wird jedes Verbrechen mit Banden zusammenhängen. “, sagte Aktivist Aaron Harvey gegenüber The Verge.

Sich auf einige Algorithmen zu verlassen, kann für einige Branchen magisch wirken, aber ihre Auswirkungen können echte menschliche Kosten verursachen. Bei schlechten Daten oder falschen Parametern kann schnell etwas schief gehen, selbst in Situationen, die weniger angespannt sind als die Polizei. Suchen Sie nicht weiter, als Zillow vor kurzem seinen House-Flipping-Betrieb einstellen musste, nachdem er Hunderte von Millionen Dollar verloren hatte, trotz der “Preismodelle und Automatisierung”, die es für einen Vorteil hielt.

Insgesamt Die Berichterstattung von , Gizmodo und The Markup ist eine gute Überlegung, wie stark prädiktive Algorithmen die von ihnen unwissentlich anvisierten Personen beeinflussen können. Die begleitende Analyse von Gizmodo liefert relevante Dateneinblicke und gewährt den Lesern gleichzeitig einen Blick hinter die Kulissen dieser Maßnahmen. Der Bericht zeigt, dass 23 der 38 verfolgten Strafverfolgungsbehörden keine PredPol-Kunden mehr sind, obwohl sie sich ursprünglich dafür angemeldet haben, um bei der Verteilung von Ressourcen zur Verbrechensbekämpfung zu helfen. Vielleicht könnten die Strafverfolgungsbehörden durch den Einsatz von Methoden, die Transparenz und Vertrauen auf beiden Seiten aufbauen, weniger Zeit mit Technologien verbringen, die zu solchen Stücken führen, was den genau gegenteiligen Ansatz unterstreicht.