Die Forschung von Twitter zeigt, dass sein Algorithmus konservative Ansichten bevorzugt

0
143

Ein Beitrag im Twitter-Blog zeigt, dass der Algorithmus von Twitter häufiger rechtsgerichtete als linksgerichtete Inhalte fördert – aber die Gründe dafür bleiben unklar. Die Ergebnisse stammen aus einer internen Studie zur algorithmischen Verstärkung politischer Inhalte durch Twitter.

Während der Studie untersuchte Twitter Millionen von Tweets, die zwischen dem 1. April und dem 15. August 2020 gepostet wurden. Diese Tweets stammten von Nachrichtenagenturen und gewählten Amtsträgern in Kanada, Frankreich, Deutschland, Japan, Spanien, Großbritannien und den USA. In allen untersuchten Ländern mit Ausnahme Deutschlands stellte Twitter fest, dass rechtsgerichtete Accounts „mehr algorithmische Verstärkung erhalten als die politische Linke“. Es stellte sich auch heraus, dass rechtsgerichtete Inhalte von Nachrichtenagenturen von der gleichen Voreingenommenheit profitieren.

“Negative Posts über politische Fremdgruppen werden auf Facebook und Twitter tendenziell viel stärker angesprochen.”

Twitter sagt, dass es nicht weiß, warum die Daten darauf hindeuten, dass sein Algorithmus rechtsgerichtete Inhalte bevorzugt, und stellt fest, dass es „eine wesentlich schwieriger zu beantwortende Frage ist, da sie ein Produkt der Interaktionen zwischen Menschen und der Plattform ist“. Es kann jedoch kein Problem speziell mit dem Algorithmus von Twitter sein – Steve Rathje, ein Ph.D. Kandidat, der Social Media studiert, veröffentlichte die Ergebnisse seiner Forschung, die erklärt, wie spaltende Inhalte über politische Fremdgruppen mit größerer Wahrscheinlichkeit viral werden.

The Verge wandte sich an Rathje, um seine Meinung zu den Ergebnissen von Twitter zu erfahren. „In unserer Studie haben wir uns auch dafür interessiert, welche Art von Inhalten in sozialen Medien verbreitet werden, und haben einen durchgängigen Trend festgestellt: Negative Posts über politische Outgroups erhalten auf Facebook und Twitter tendenziell viel mehr Engagement“, so Rathje. „Mit anderen Worten, wenn ein Demokrat einen Republikaner ablehnt (oder umgekehrt), wird diese Art von Inhalten normalerweise mehr Engagement erhalten.“

Wenn wir Rathjes Recherchen berücksichtigen, könnte dies bedeuten, dass rechtsgerichtete Posts auf Twitter erfolgreich mehr Empörung auslösen und zu einer Verstärkung führen. Vielleicht hängt das Algorithmusproblem von Twitter damit zusammen, giftiges Tweeten mehr zu fördern als eine bestimmte politische Voreingenommenheit. Und wie wir bereits erwähnt haben, ergaben die Recherchen von Twitter, dass Deutschland das einzige Land war, das nicht den rechtsgerichteten Algorithmus-Bias aufwies. Es könnte mit Deutschlands Vereinbarung mit Facebook, Twitter und Google zusammenhängen, Hassreden innerhalb von 24 Stunden zu entfernen. Einige Nutzer ändern auf Twitter sogar ihr Land zu Deutschland, um zu verhindern, dass Nazi-Bilder auf der Plattform erscheinen.

Verwandte

Kongress hinkt bei algorithmischen Fehlinformationen weit hinterher

NYU-Forscher finden keine Beweise für antikonservative Voreingenommenheit in sozialen Medien

Twitter versucht schon seit einiger Zeit, die Art und Weise zu ändern, wie wir twittern. Im Jahr 2020 begann Twitter mit dem Testen einer Funktion, die Benutzer warnt, wenn sie eine unhöfliche Antwort posten, und erst in diesem Jahr hat Twitter damit begonnen, eine Nachricht zu testen, die erscheint, wenn es denkt, dass Sie in einen hitzigen Twitter-Kampf geraten. Dies sind Anzeichen dafür, wie viel Twitter bereits über Probleme mit Mobbing und hasserfüllten Posts auf der Plattform weiß.

Frances Haugen, der Whistleblower, der eine Reihe interner Dokumente von Facebook geleakt hat, behauptet, dass Facebooks Algorithmus bevorzugt Hassreden und spaltende Inhalte. Twitter könnte sich leicht in der gleichen Position befinden, teilt jedoch offen einige der internen Datenprüfungen mit, bevor die Möglichkeit eines Lecks besteht.

Rathje wies auf eine andere Studie hin, die herausfand, dass moralische Empörung virale Posts sowohl aus liberaler als auch aus konservativer Sicht verstärkte, aber von Konservativen aus erfolgreicher war. Er sagt, wenn es um Funktionen wie die algorithmische Werbung geht, die zur Viralität in den sozialen Medien führen, “sollte weiter untersucht werden, ob diese Funktionen dazu beitragen, die Verstärkung rechter Inhalte auf Twitter zu erklären”. Wenn die Plattform das Problem weiter vertieft und den Zugang zu anderen Forschern öffnet, könnte sie den spaltenden Inhalt dieses Themas besser in den Griff bekommen.