Facebook hat Berichten zufolge Beschwerden von politischen Parteien eingereicht, denen zufolge eine umfassende Änderung des Newsfeeds sie zu negativen, polarisierenden Beiträgen geführt habe. Heute veröffentlichte das Wall Street Journal durchgesickerte Berichte von Facebook, nachdem es „sinnvolle soziale Interaktionen“ auf der Plattform gefördert hatte. Während Facebook den Schritt als Unterstützung von Freunden bezeichnete, hieß es in internen Berichten, dass es „ungesunde Nebenwirkungen auf wichtige Teile öffentlicher Inhalte wie Politik und Nachrichten“ hatte, und nannte diese Auswirkungen eine „zunehmende Haftung“.
Die Nachricht ist Teil einer größeren Wall Street Journal-Reihe, die auf internen Facebook-Recherchen basiert. Der heutige Bericht befasst sich mit den Folgen einer Entscheidung aus dem Jahr 2018, Posts mit vielen Kommentaren und Reaktionen zu priorisieren. Facebook nahm die Änderung angeblich vor, nachdem es festgestellt hatte, dass Kommentare, Likes und Reshares im Laufe des Jahres 2017 zurückgegangen waren – was teilweise darauf zurückzuführen war, dass Menschen professioneller produzierte Videos ansahen. Öffentlich beschrieb CEO Mark Zuckerberg es als eine Möglichkeit, die „gut verbrachte Zeit“ mit Freunden und Familie zu erhöhen, anstatt den passiven Videokonsum zu erhöhen.
„Viele Parteien … sorgen sich um die langfristigen Auswirkungen auf die Demokratie“
Nach der Änderung ergab die interne Forschung gemischte Ergebnisse. Tägliche aktive Nutzer nahmen zu und Nutzer fanden Inhalte, die von engen Verbindungen geteilt wurden, “bedeutungsvoller”, aber erneut geteilte Inhalte (was durch die Änderung belohnt wurde) enthielten “unordentliche” Ausmaße an “Fehlinformationen, Toxizität und gewalttätigen Inhalten”. Die Leute neigten dazu, kontroverse Inhalte zu kommentieren und zu teilen, und dabei machten sie Facebook anscheinend allgemein wütender.
In einem Bericht wurden Bedenken von ungenannten politischen Parteien in der Europäischen Union, darunter einer in Polen, geäußert. „In der EU durchgeführte Untersuchungen zeigen, dass politische Parteien ‚das starke Gefühl haben, dass die Änderung des Algorithmus sie gezwungen hat, ihre Kommunikation auf Facebook negativ zu gestalten, mit dem nachgelagerten Effekt, dass sie in extremere politische Positionen geführt werden‘“, heißt es darin. Facebook hat offenbar ähnliche Bedenken von Parteien in Taiwan und Indien gehört.
In Polen „schätzt das Social-Media-Management-Team einer Partei, dass sie den Anteil ihrer Posts von 50/50 positiv/negativ bis 80 Prozent negativ, explizit in Abhängigkeit von der Änderung des Algorithmus.“ Und „viele Parteien, auch solche, die sich stark ins Negative gewendet haben, sorgen sich um die langfristigen Auswirkungen auf die Demokratie.“
Nachrichtenverleger – ein häufiges Opfer von Facebooks Algorithmus-Optimierungen – waren nicht überraschend mit der Änderung nicht zufrieden. Facebook weist darauf hin, dass sich BuzzFeed-CEO Jonah Peretti darüber beschwert hat, dass durch die Änderung Dinge wie „Junkie-Wissenschaft“ und rassistisch spaltende Inhalte gefördert werden.
Facebook optimiert den Newsfeed häufig, um verschiedene Arten von Inhalten zu bewerben, oft deutlich als Reaktion auf öffentliche Besorgnis sowie finanzielle Erwägungen. (Die Bewegung „gut investierte Zeit“ zum Beispiel stigmatisierte das „geistlose Scrollen“ in den sozialen Medien harsch.) Lars Backstrom, VP für Facebook-Engineering, sagte dem Journal, dass „wie bei jeder Optimierung es einige Möglichkeiten geben wird, sie auszunutzen oder zu nehmen“. Vorteil.“
Aber das Journal schreibt, dass Zuckerberg, als die Forscher von Facebook Korrekturen vorschlugen, zögerte, diese zu implementieren, wenn sie damit drohten, das Engagement der Benutzer zu verringern. Letztendlich würde Facebook jedoch die Bedeutung des Kommentierens und Teilens auf den Newsfeed-Algorithmus reduzieren und mehr Gewicht darauf legen, was die Leute tatsächlich sehen wollten.