Wenn algorithmen schief gehen, brauchen wir mehr Kraft, sich zu wehren, sagen die KI-Forscher

0
120

Regierungen und private Unternehmen bereitstellen, die KI-Systeme in einem rasanten Tempo, aber die öffentlichkeit fehlt, die Werkzeuge zu halten, diese Systeme verantwortlich, wenn Sie scheitern. Das ist eine der wichtigsten Schlussfolgerungen in einem neuen Bericht von AI Nun eine Arbeitsgruppe, die die Heimat Mitarbeiter von tech-Unternehmen wie Microsoft und Google-und Beteiligungsgesellschaften mit der New York University.

Der Bericht untersucht die sozialen Herausforderungen von AI und Algorithmische Systeme, homing in auf das, was die Forscher es nennen, “accountability gap”, da diese Technologie integriert ist “across core sozialen Bereichen.” Sie legte zehn Empfehlungen, darunter den Aufruf für die Staatliche Regulierung der Gesichtserkennung (von Microsoft president Brad Smith, der auch Befürworter für diese Woche) und “truth-in-advertising”, die Gesetze für die AI-Produkte, so dass Unternehmen können nicht einfach den Handel auf den Ruf des Technologie Ihre Dienstleistungen verkaufen.

Große tech-Unternehmen, die sich gefunden haben, in einem AI-gold rush-Ladung in eine Vielzahl von Märkten von der Anwerbung bis zur Gesundheitsversorgung, zu verkaufen Ihre Dienste an. Aber, wie AI Jetzt co-Gründer Meredith Whittaker, Chef von Google ‘ s Open Research Group, sagt Der Schwelle “viele Ihrer Forderungen über den Vorteil und nutzen sind nicht gesichert durch öffentlich zugängliche wissenschaftliche Belege.”

Whittaker gibt das Beispiel der IBM-Watson-system, die, während der Studie diagnostiziert am Memorial Sloan Kettering Cancer Center, gab “unsichere und falsche Therapieempfehlungen” laut durchgesickerten internen Dokumenten. “Die Ansprüche, dass Ihre marketing-Abteilung gemacht hatte, über [Ihre Technologie] in der Nähe-Magische Eigenschaften wurden nie begründet durch peer-review-Forschung”, sagt Whittaker.

2018 wurde ein Jahr der “cascading Skandale” für die KI

Die Autoren der KI, die Nun den Bericht sagen, dieser Vorfall ist nur einer von einer Reihe von “cascading Skandale” mit AI und Algorithmische Systeme bereitgestellt, die von Regierungen und großen tech-Unternehmen im Jahr 2018. Andere reichen von Vorwürfen, dass Facebook half erleichtern Völkermord in Myanmar, um die Offenbarung zu, dass Google ist ein Beitrag zum Aufbau AI tools für Drohnen für das Militär als Teil des Projekts Maven, und die Cambridge Analytica Skandal.

In all diesen Fällen wurde der öffentliche aufschrei als auch interne Meinungsverschiedenheiten im Silicon Valley das wertvollste Unternehmen. Das Jahr war Google-Mitarbeiter verlassen das Unternehmen – Pentagon-Verträge, die Microsoft-Mitarbeiter Druck auf die Unternehmen zu stoppen, arbeiten mit Immigration and Customs Enforcement (ICE), und Mitarbeiter walkouts von Google, Uber, eBay, Airbnb protestieren Probleme mit sexueller Belästigung.

Whittaker sagt, dass diese Proteste, unterstützt durch das labor Allianzen und Forschungs-Initiativen wie die AI Jetzt die eigene, geworden, “ein unerwarteter und erfreulicher Kraft für die Rechenschaftspflicht gegenüber der öffentlichkeit.”

US Conducts Air War Against ISIL From Secret Base In Persian Gulf Region

In diesem Jahr sah die weit verbreitete Proteste gegen die Verwendung von AI, einschließlich der Google-Einbindung in Gebäude-Drohne in der überwachungstechnologie.

Foto: John Moore/Getty Images

Aber der Bericht ist klar: die öffentlichkeit braucht mehr. Die Gefahr für die bürgerliche Justiz wird besonders deutlich, wenn es um die Einführung der automatisierten Entscheidung Systemen (ADS) von der Regierung. Dazu zählen algorithmen für die Berechnung der Freiheitsstrafen und die Zuweisung ärztliche Hilfe. In der Regel, sagen die Autoren des Berichts, software eingeführt wird in diesen Bereichen mit dem Ziel der Senkung der Kosten und Steigerung der Effizienz. Aber das Ergebnis ist oft, Systeme, Entscheidungen, die nicht erklärt werden kann, oder in die Berufung.

AI Jetzt der Bericht nennt eine Reihe von Beispielen, darunter die von Tammy Dobbs, ein Arkansas Bewohner mit Zerebralparese, die hatte Ihre Medicaid-vorausgesetzt, home-care-Schnitt von 56 Stunden zu 32 Stunden in der Woche ohne Erklärung. Prozesskostenhilfe erfolgreich verklagt den Staat Arkansas und die Algorithmische Zuordnung system wurde als verfassungswidrig erklärt.

Whittaker und Kollegen-KI Nun co-founder Kate Crawford, ein Forscher bei Microsoft, sagen, dass die integration von WERBUNG in Diensten der Regierung hat über unsere Fähigkeit, zu überwachen dieser Systeme. Aber, sagen Sie, es gibt konkrete Schritte, die ergriffen werden können, um Abhilfe zu schaffen. Diese enthalten, erfordern Technologie-Anbieter, die verkaufen Dienstleistungen an die Regierung zu verzichten Geschäftsgeheimnis Schutz, so dass die Forscher besser untersuchen, Ihre algorithmen.

“Wenn wir wollen, dass die öffentliche Rechenschaftspflicht haben wir überprüfen können, dass diese Technologie.”

“Sie müssen in der Lage sein zu sagen,” you ‘ve been cut off von Medicaid, hier ist warum’, und Sie können nicht tun, mit black-box-Systeme”, sagt Crawford. “Wenn wir wollen, dass die öffentliche Rechenschaftspflicht haben wir überprüfen können, dass diese Technologie.”

Ein weiterer Bereich, wo handeln notwendig ist, sofort, sagen das paar, ist die Verwendung von Gesichtserkennung und beeinflussen Anerkennung. Das erstere ist zunehmend von der Polizei, in China, den USA und Europa. Amazon Rekognition software, zum Beispiel, wurde bereitgestellt von der Polizei in Orlando und Washington County, obwohl tests haben gezeigt, dass die software ausführen können unterschiedlich über die verschiedenen Rassen. In einem test, bei dem Rekognition wurde verwendet, um zu identifizieren, Mitglieder des Kongresses, es hatte einen Fehler rate von 39 Prozent für nicht-weiße Mitglieder im Vergleich zu nur fünf Prozent für die weißen Mitglieder. Und für die Anerkennung, wo Unternehmen den Anspruch, Technologie Scannen kann das Gesicht einer Person und Lesen Ihren Charakter und sogar die Absicht, AI Jetzt die Autoren sagen, die Unternehmen sind oft hausieren Pseudowissenschaft.

Trotz dieser Herausforderungen, obwohl, Whittaker und Crawford sagen, dass 2018 hat gezeigt, dass, wenn die Probleme der KI, der Rechenschaftspflicht und der bias werden ans Licht gebracht, tech-Mitarbeiter, Gesetzgeber und die öffentlichkeit bereit sind zu handeln, anstatt zu dulden.

Mit Bezug auf die Algorithmische Skandale, ausgebrütet von Silicon Valley größten Unternehmen, Crawford sagt: “Ihre” schnell bewegen und Dinge brechen’ Ideologie gebrochen hat, eine Menge Dinge, die sehr lieb zu uns und jetzt müssen wir anfangen, über das öffentliche Interesse.”

Sagt Whittaker: “Was Sie sehen, ist, dass die Menschen aufwachen, um die Widersprüche zwischen den cyber-utopischen tech Rhetorik und die Realität der Folgen dieser Technologien, wie Sie im Alltag verwendet.”