YouTube sagte am Freitag, es würde die Förderung weniger videos mit Fehlinformationen und Verschwörungstheorien, ein potenziell bedeutender Schritt zur Verringerung der service-Potenzial-Laufwerk Zuschauer auf extremistische Inhalte. In einem test nur auf die USA beschränkt, der service sagte, es würde aufhören, empfehlen, was es fordert “grenzwertige Inhalte”, die videos, die kommen in der Nähe der Verletzung seiner community-Richtlinien, aber halt nur kurz.
Während YouTube sagte, die änderung auswirken würde weniger als 1 Prozent der videos, die auf YouTube verfügbar sind, die schiere Menge der Inhalte auf den Dienst legt nahe, die Wirkung könnte erheblich sein.
“Wir werden beginnen, die Verringerung der Empfehlungen der borderline-Inhalte und Inhalte, die könnten haben Benutzer in schädigender Weise — wie-videos fördern, eine gefälschte Wunder Heilung für eine schwere Krankheit, die behaupten, die Erde ist flach, oder offensichtlich falsche Behauptungen über historische Ereignisse wie 9/11,” das Unternehmen sagte in einer Erklärung.
Der Umzug kommt inmitten anhaltenden Kritik, dass YouTube hat unwissentlich gedrückt extremistischen videos für Jahre. In einem vielgelesenen op-ed im letzten Jahr, Forscherin Zeynep Tufekci bezeichnet YouTube “der große radicalizer.”
“Es scheint, als ob Sie nie “hard core” genug für YouTube-Empfehlung Algorithmus,” Tufekci schrieb. “Es fördert, empfiehlt und verbreitet die videos in einer Weise, die scheint ständig die Einsätze. Angesichts der Milliarden, oder so dass die Nutzer, YouTube kann eine der mächtigsten zündender und radikalisierender Instrumente des 21sten Jahrhunderts.”
Mehr empörend videos neigen dazu, gut zu
Standardmäßig wird YouTube ermöglicht es eine autoplay Funktion, dient Nutzern neue videos, sobald der, den Sie gerade sind beendet. Diese rabbit holes oft führen die Zuschauer die videos, die Sie empfangen haben viel engagement, einschließlich Ansichten, Kommentare und Aktien. Mehr empörend videos neigen dazu, zu führen und durch diese Maßnahmen, und so wurden Sie serviert von der YouTube-Algorithmus für die Jahre.
Am Donnerstag, BuzzFeed veröffentlichte eine neue Untersuchung der YouTube recommendation engine und festgestellt, dass Sie ein neues Konto anklicken eines überparteilichen politischen video würde aufpassen extremistischen Inhalten-innerhalb von nur sechs videos.
“Compounding dieses Problem ist der hohe Prozentsatz von Nutzern, die sagen, Sie haben sich akzeptiert Vorschläge aus dem Nächsten Algorithmus — 81%, laut Pew,” BuzzFeed schrieb. “In fünf YouTube-Nutzer im Alter zwischen 18 und 29 sagen, das Sie beobachten, empfohlene videos regelmäßig, das macht die Plattform demonstriert die Tendenz zu springen, aus zuverlässigen Nachrichten bis zum regelrechten Verschwörung, die alle noch besorgniserregend.”
YouTube bewegen lässt viele Fragen übrigen über welche Arten von videos werden als grenzwertig. In einem interview, das Unternehmen vorgeschlagen, dass Benutzer sollte Lesen, den veröffentlichten Leitlinien der Gemeinschaft für Anleitungen, welche Arten von videos kommen kann, schließen Sie zum Empfang eines gefürchteten Streik.
Moderatoren ausbilden, das system zu erkennen, borderline-videos
Die Durchsetzung der neuen Politik wird der Herbst zu einer Mischung von menschlichen Moderatoren und machine-learning-Systeme, teilte das Unternehmen mit. Moderatoren ausbilden, das system zu erkennen, borderline-videos, und dann das system eingesetzt werden, um review-videos automatisch und entscheiden Sie, ob Sie Anspruch auf Förderung.
Die undurchsichtige Natur des Prozesses könnte helfen, YouTube verhindern, dass Benutzer von gaming-system. Aber es ist auch höchst wahrscheinlich führen zu frustration bei den Anwendern, die glauben, dass Ihre videos wurden zu Unrecht die Bezeichnung borderline-Inhalte.
Videos mit der Bezeichnung borderline wird nicht von der Website entfernt werden, so das Unternehmen. Wenn ein Benutzer abonniert einen Kanal, der Merkmale der borderline-Inhalte, die videos werden immer noch berechtigt sein, für die Abonnenten der Empfehlungen. “Wir denken, dass diese änderung schafft ein Gleichgewicht zwischen der Aufrechterhaltung einer Plattform für die freie Meinungsäußerung und die Wahrnehmung unserer Verantwortung für die Nutzer”, erklärte das Unternehmen in seinem blog-post.
Wenn der test erfolgreich ist, YouTube-Pläne, roll-out der Veränderungen noch weitgehend.
YouTube ist nicht allein in der Zahlung der frischen Aufmerksamkeit auf Fragen über Inhalte, die populär wird durch die zu Fuß die feine Linie zwischen verboten und erlaubt. Im November, Facebook sagte, dass es wirken würde, um die Ausbreitung der “reißerische und provokative” Inhalt. “Ich glaube, dass diese Bemühungen auf die zugrunde liegenden Anreize in unseren Systemen sind einige der wichtigsten Arbeit, die wir tun, über das Unternehmen”, sagt CEO Mark Zuckerberg schrieb in einem blog-post.