Twitch reagiert auf die „Twitch Do Better“-Bewegung mit verbesserten Chat-Filtern

0
135

Heute hat Twitch eine Erklärung veröffentlicht, in der die Schritte angekündigt werden, die es unternimmt, um seine marginalisierten Streamer zu schützen.

“Wir haben viele Gespräche über Botting gesehen, Hassüberfälle und andere Formen der Belästigung, die auf marginalisierte Schöpfer abzielen“, schreibt Twitch. “Ihr verlangt von uns, es besser zu machen, und wir wissen, dass wir mehr tun müssen, um diese Probleme zu beheben.”

Twitch sagt, dass es “eine Schwachstelle in unseren proaktiven Filtern” identifiziert hat und ein Update herausgebracht, um diese Lücke zu schließen und Hassreden im Chat besser zu erkennen.“ Es heißt auch, dass es in den kommenden Wochen weitere Sicherheitsfunktionen implementieren wird, darunter Verbesserungen des Kontoüberprüfungsprozesses und Tools zur Erkennung von Steuerhinterziehungen.

Diese Erklärung ist eine Reaktion auf den Hashtag #twitchdobetter, der von Twitch-Erfinder RekItRaven gestartet wurde, um auf Belästigungsprobleme aufmerksam zu machen, die schwarze Schöpfer auf der Streaming-Plattform hatten.

“Ich wurde zum zweiten Mal innerhalb einer Woche von Hass überfallen und ich habe sowohl das erste als auch das zweite Vorkommen [auf Twitter] geteilt, weil sie eher zuspitzt waren als das normale, 'Du bist fett, schwarz, schwul'”, erzählt Raven The Verge per Direktnachricht.

(Inhaltswarnung: Rassismus)

Raiding ist eine beliebte Twitch-Funktion, die es einem Streamer ermöglicht, Zuschauer am Ende seiner Übertragung zu einem anderen Streamer zu schicken. Es ist ein Tool, das verwendet wird, um die Zuschauerzahlen zu steigern, Communities zu vergrößern und Verbindungen zwischen Streamern und ihrem Publikum zu fördern. Hate Raids sind das polare, giftige Gegenteil. Bei Hassraids leitet ein Streamer seine Zuschauer zu einem anderen YouTuber – der oft schwarz, queer, weiblich ist oder eine Kreuzung von marginalisierten Identitäten hat –, um diesen Streamer mit Hassreden und Belästigungen zu bombardieren.

Raven glaubt, dass sie zum Ziel von Hassüberfällen geworden sind, weil sie mit dem Black-Tag streamen, einer neuen Twitch-Funktion, mit der Benutzer ihre Streams mit verschiedenen Markierungen klassifizieren können. Die Tags werden angeblich für YouTuber verwendet, um ihre Streams zu kategorisieren, damit interessierte Benutzer die gesuchten Inhalte besser finden können, aber sie schaffen auch ein Leuchtfeuer, das Trolle verwenden, um gefährdete, marginalisierte Streamer zu erfassen. Nach ihrer Erfahrung mit Hassüberfällen bemerkte Raven, dass andere marginalisierte Streamer in ihrer Community die gleichen Erfahrungen machten. Und da Twitch nichts darüber sagte, was getan wurde, um seine Benutzer vor dieser Art von gezielter, gewalttätiger Belästigung zu schützen, beschloss Raven, die Unterhaltung wieder aufzunehmen.

„Ich habe #TwitchDoBetter gestartet weil ich es satt habe, auf einer Plattform ums Überleben kämpfen zu müssen, die sagt, dass sie vielfältig und integrativ sind, aber zu den Bitten marginalisierter Schöpfer geschwiegen habe, die mehr Schutz vor Hassüberfällen fordern“, sagt Raven.

Twitch kämpft damit, die Toxizität von seiner Plattform fernzuhalten. Letztes Jahr wurde der Streamer CriticalBard einer Welle rassistischer Trolle ausgesetzt, als er zum temporären Gesicht des „Pogchamp“-Emotes wurde. Twitch hat auch sein TwitchCop-Emote entfernt, da befürchtet wurde, dass es verwendet werden könnte, um Schöpfer zu belästigen, die nach dem Mord an George Floyd über Polizeigewalt sprechen. In diesen Situationen und jetzt hat Twitch eher auf die Bedürfnisse seiner Benutzer reagiert als proaktiv, was zu Frustration der Entwickler führte. Bessere, proaktivere Moderationstools wurden von den marginalisierten Entwicklern von Twitch immer wieder gefragt.

Die Tools, die Twitch im heutigen Sicherheits-Rollout einsetzt, werden anscheinend nur Trolle ansprechen, die nicht-lateinische Zeichen verwenden, um Chatfilter zu umgehen. Streamer verlangen mehr.

“Ich würde es begrüßen, wenn Creators mehr Tools zur Verfügung haben, um ihre Erfahrung zu kontrollieren, wie es Creatorn erlaubt, [kürzlich erstellte] Konten für den Chat zu blockieren, [und] Mods zu erlauben, Raids zu genehmigen oder abzulehnen “, sagt Rabe.