Aufsichtsgremium alarmiert über die Rolle von Facebook im äthiopischen Konflikt

0
190

Das von Facebook eingesetzte Aufsichtsgremium hat heute eine Entscheidung veröffentlicht, in der die Plattform aufgefordert wird, eine unabhängige Bewertung der Rolle der Plattform bei der Erhöhung des Gewaltrisikos in Äthiopien als Teil einer genaueren Entscheidung zu Post, der unbegründete Behauptungen über tigrayische Zivilisten aufstellte.

Das Urteil kommt ein Jahr in einen anhaltenden Bürgerkrieg zwischen der äthiopischen Regierung und Rebellen in der nördlichen Tigray-Region des Landes, der eine humanitäre Krise, die Hunderttausende von Menschen mit Hungersnot-ähnlichen Zuständen konfrontiert und Millionen aus ihrer Heimat vertrieben hat.

Facebook ist wegen seiner Rolle im äthiopischen Konflikt in die Kritik geraten, wobei Beobachter Parallelen zur Rolle des Unternehmens beim Völkermord an den Rohingya-Muslimen in Myanmar ziehen. Dort schürte eine von myanmarischen Militärs geführte Online-Kampagne den Hass gegen die Minderheiten der Rohingya und führte zu Massenmorden und ethnischen Säuberungen. In Äthiopien durften sich ähnliche Gerüchte und Anstiftungen zu Gewalt verbreiten, obwohl zahlreiche Facebook-Mitarbeiter Berichten zufolge im Unternehmen Alarm geschlagen haben.

Die Untätigkeit von Facebook wurde anscheinend vom Aufsichtsgremium anerkannt. Es empfahl Meta, „eine unabhängige menschenrechtliche Due-Diligence-Prüfung darüber in Auftrag zu geben, wie Facebook und Instagram verwendet wurden, um Hassreden und unbestätigte Gerüchte zu verbreiten, die das Risiko von Gewalt in Äthiopien erhöhen“ und ihrer Community spezifische Leitlinien zu Gerüchten während Krieg und Konflikten hinzuzufügen Standards.

„​​In Übereinstimmung mit der verbindlichen Entscheidung des Boards haben wir den Inhalt des Falls entfernt“

„​​In Übereinstimmung mit dem verbindlichen Beschluss des Boards haben wir den Inhalt des Falls entfernt“, sagte Facebook-Sprecher Jeffrey Gelman in einer Erklärung. „Wir prüfen die vollständige Entscheidung und Empfehlungen des Vorstands und werden gemäß der Satzung innerhalb von 30 Tagen antworten.“

Der Inhalt der Entscheidung war ein Beitrag in Amharisch, der im Juli 2021 auf die Plattform hochgeladen wurde und ohne Beweise behauptete, die Tigray People's Liberation Front (TPLF) habe Frauen und Kinder getötet und vergewaltigt in der äthiopischen Region Amhara mit Unterstützung tigrayanischer Zivilisten.

Nachdem der Beitrag durch automatisierte Spracherkennungssysteme markiert wurde, entschied ein menschlicher Moderator zunächst, ihn zu entfernen. Der Benutzer, der den Inhalt gepostet hatte, legte Berufung gegen die Entscheidung ein, aber ein zweiter Inhaltsmoderator bestätigte, dass er gegen die Gemeinschaftsstandards von Facebook verstößt. Der Nutzer legte daraufhin Einspruch beim Aufsichtsgremium ein, das sich bereit erklärte, den Fall zu prüfen.

Letztendlich stellte das Gremium fest, dass der Inhalt gegen den Community-Standard von Facebook zu Gewalt und Anstiftung verstößt, und bestätigte dass die Entscheidung, es zu entfernen, richtig war. Der Vorstand kritisierte auch die Entscheidung von Meta, den Inhalt in der Zeit vor der endgültigen Entscheidung wiederherzustellen.