Dass der durch maschinelles Lernen gesteuerte Feed von YouTube-Empfehlungen häufig Ergebnisse einer ausgefallenen oder sogar radikalisierenden Neigung hervorbringen kann, ist keine große Frage mehr. YouTube selbst hat Tools eingeführt, die den Nutzern mehr Kontrolle über ihren Feed und Transparenz über bestimmte Empfehlungen geben könnten, aber für Außenstehende ist es schwierig zu wissen, welche Auswirkungen sie haben. Nachdem sie einen Großteil des letzten Jahres damit verbracht hat, Daten aus der RegretsReporter-Erweiterung (verfügbar für Firefox oder Chrome) zu sammeln, hat die Mozilla Foundation nun mehr Informationen darüber, was die Leute sehen, wenn der Algorithmus die falsche Wahl trifft, und hat einen detaillierten Bericht (pdf) veröffentlicht.
Im September 2020 startete die Erweiterung mit einem Crowdsourcing-Ansatz, um „bedauerliche“ Inhalte zu finden, auf die Menschen über die Empfehlungsmaschine stoßen. Nach Erhalt von 3.362 Berichten (zusammen mit Daten von Personen, die die Erweiterung installiert, aber keine Berichte eingereicht haben), zeigen die Trends in den Daten die Gefahr im Ansatz von YouTube.
YouTube muss zugeben, dass sein Algorithmus so konzipiert ist, dass er schädlich ist und die Leute falsch informiert.
Während die Stiftung angibt, das Konzept des „Bedauerns“ absichtlich vage gehalten zu haben, urteilte sie, dass 12,2 Prozent der gemeldeten Videos gegen die eigenen Inhaltsregeln von YouTube verstoßen, und stellte fest, dass etwa neun Prozent von ihnen (fast 200 insgesamt) aus der Website entfernt wurden YouTube – nach über 160 Millionen Aufrufen. Warum diese Videos überhaupt gepostet wurden, ist eine mögliche Erklärung dafür, dass sie beliebt sind – Mozilla stellte fest, dass gemeldete Videos durchschnittlich 70 Prozent mehr Aufrufe pro Tag erzielten als andere Videos, die von Freiwilligen angesehen wurden.
Brandy Guerkink, Senior Director of Advocacy bei Mozilla, sagt: „YouTube muss zugeben, dass sein Algorithmus so konzipiert ist, dass er Menschen schadet und falsch informiert.“ Dennoch sind mir zwei Statistiken aus der Studie besonders aufgefallen: Mozilla sagt: „In 43,3 Prozent der Fälle, in denen wir Daten über Trails haben, die sich ein Freiwilliger vor einem Regret angesehen hat, war die Empfehlung völlig unabhängig von den vorherigen Videos, die der Freiwillige gesehen hat.“ Außerdem war die Rate der gemeldeten bedauerlichen Videos in Ländern, in denen Englisch keine Hauptsprache ist, um 60 Prozent höher. Trotz der geringen Stichprobengröße und der möglichen Auswahlverzerrung der Daten deutet dies darauf hin, dass an Orten, an denen Menschen, die hauptsächlich Englisch sprechen, nicht einmal aufgepasst werden, mehr zu beachten ist.
NBC-Nachrichten enthalten eine Erklärung von YouTube zu dem Bericht, in der es heißt: “Allein im letzten Jahr haben wir über 30 verschiedene Änderungen eingeführt, um Empfehlungen für schädliche Inhalte zu reduzieren”. Sie hatten eine ähnliche Reaktion, als das Projekt im letzten Jahr gestartet wurde. Zu den von Mozilla vorgeschlagenen Reformen gehören Transparenzberichte und die Möglichkeit, die Personalisierung abzulehnen. Da YouTube jedoch über 6 Milliarden US-Dollar pro Quartal aus Werbung einzieht, scheint es zweifelhaft, sich vom Profiling abzuwenden.