Facebook-Streitigkeiten berichten, dass seine KI Hassreden oder Gewalt nicht konsequent erkennen kann

0
144

Facebook-Vizepräsident für Integrität Guy Rosen schrieb am Sonntag in einem Blogbeitrag, dass die Prävalenz von Hassreden auf der Plattform in den letzten drei Jahren um 50 Prozent gesunken sei und dass “eine Erzählung, die die von uns verwendete Technologie” sei Hassreden zu bekämpfen ist unzureichend und dass wir unsere Fortschritte absichtlich falsch darstellen“ war falsch.

„Wir wollen keinen Hass auf unserer Plattform sehen, ebensowenig unsere Nutzer oder Werbetreibenden, und wir sind transparent über unsere Arbeit, ihn zu entfernen“, schrieb Rosen. „Was diese Dokumente zeigen, ist, dass unsere Integritätsarbeit eine mehrjährige Reise ist. Obwohl wir nie perfekt sein werden, arbeiten unsere Teams kontinuierlich daran, unsere Systeme zu entwickeln, Probleme zu identifizieren und Lösungen zu entwickeln.“

Der Beitrag schien eine Reaktion auf einen Sonntagsartikel in der Wall Street zu sein Journal, das sagte, dass die Facebook-Mitarbeiter, die damit beauftragt sind, anstößige Inhalte von der Plattform fernzuhalten, nicht glauben, dass das Unternehmen zuverlässig darauf überprüfen kann.

Der WSJ-Bericht besagt, dass interne Dokumente zeigen, dass Facebook vor zwei Jahren die Zeit verkürzt hat, in der sich menschliche Gutachter auf Beschwerden über Hassreden konzentrierten, und andere Anpassungen vornahm, die die Anzahl der Beschwerden verringerten. Dies wiederum trug dazu bei, den Anschein zu erwecken, dass die künstliche Intelligenz von Facebook die Regeln des Unternehmens erfolgreicher durchgesetzt hatte, als sie es tatsächlich war, so das WSJ.

Ein Team von Facebook-Mitarbeitern stellte im März fest, dass die automatisierten Systeme des Unternehmens Posts entfernten, die zwischen 3 und 5 Prozent der Aufrufe von Hassreden auf der sozialen Plattform generierten, und weniger als 1 Prozent aller Inhalte, die gegen seine Regeln verstießen Gewalt und Anstiftung, berichtete das WSJ.

Aber Rosen argumentierte, dass die Konzentration allein auf das Entfernen von Inhalten “der falsche Weg sei, um zu sehen, wie wir Hassreden bekämpfen”. Er sagt, die Technologie zur Entfernung von Hassreden sei nur eine Methode, mit der Facebook sie bekämpft. „Wir müssen sicher sein, dass etwas Hassrede ist, bevor wir es entfernen“, sagte Rosen.

Stattdessen, sagte er, ist das Unternehmen der Ansicht, dass es eine wichtigere Maßnahme ist, sich auf die Prävalenz von Hassreden zu konzentrieren, die die Leute tatsächlich auf der Plattform sehen, und wie sie diese mithilfe verschiedener Tools reduziert. Er behauptete, dass auf 10.000 Aufrufe eines Inhalts auf Facebook fünf Aufrufe von Hassreden kamen. „Die Prävalenz sagt uns, welche rechtsverletzenden Inhalte die Leute sehen, weil wir sie übersehen haben“, schrieb Rosen. „So bewerten wir unseren Fortschritt am objektivsten, da es das vollständigste Bild liefert.“

Aber die internen Dokumente des WSJ zeigten, dass einige wichtige Inhalte Facebooks Erkennung, einschließlich Videos von Autounfällen, die Menschen mit grafischen Verletzungen zeigten, und gewalttätige Drohungen gegen trans-Kinder.

Das WSJ hat eine Reihe von Berichten über Facebook erstellt, die auf internen Dokumenten der Whistleblowerin Frances Haugen basieren. Sie sagte vor dem Kongress aus, dass sich das Unternehmen der negativen Auswirkungen seiner Instagram-Plattform auf Teenager bewusst sei. Facebook hat die Berichterstattung anhand der internen Dokumente angefochten.