YouTube dit qu’il va vous recommandons de moins de vidéos sur les théories du complot

0
172

YouTube a annoncé vendredi qu’il ferait la promotion de moins de vidéos contenant de la désinformation et des théories de conspiration, une étape importante à la réduction de la capacité des services à inciter les téléspectateurs vers les extrémistes de contenu. Dans un test limité aux États-unis, le service a dit qu’il allait arrêter de recommander ce qu’il appelle “la limite de contenu” — les vidéos qui viennent près de la violation de sa communauté, mais s’arrêter juste avant.

Alors que YouTube dit que le changement pourrait affecter moins de 1 pour cent de vidéos disponibles sur YouTube, le volume des contenus disponibles sur le service fait penser que l’impact pourrait être significatif.

“Nous allons commencer à réduire les recommandations de la limite de contenu et le contenu qui pourrait désinformer les utilisateurs de manière nuisible — comme les vidéos de la promotion d’un faux remède miracle pour une maladie grave, prétendant que la terre est plate, ou de faire ouvertement de fausses déclarations sur les événements historiques comme 9/11,” a indiqué la compagnie dans un communiqué.

Le mouvement vient au milieu soutenue à la critique que YouTube a involontairement poussé extrémistes des vidéos sur des années. Dans un très lu op-ed de l’année dernière, le chercheur Zeynep Tufekci appelé “YouTube ” la grande radicalizer.”

“Il me semble que si vous n’êtes jamais “noyau dur” assez pour YouTube recommandation de l’algorithme,” Tufekci écrit. “Elle promeut, recommande et diffuse des vidéos d’une manière qui semble constamment les enjeux. Compte tenu de son milliard d’utilisateurs, YouTube peut être l’un des plus puissants radicalisation des instruments du 21e siècle.”

Par défaut, YouTube permet à une fonctionnalité de lecture automatique qui dessert les utilisateurs de nouvelles vidéos dès que celle qu’ils sont en train de regarder les finitions. Ces trous de lapins souvent pour amener les internautes vers des vidéos qui ont reçu beaucoup de “la participation” — points de vue, commentaires et partages. Plus scandaleux vidéos ont tendance à bien par ces mesures, et ont donc été servi par l’algorithme de YouTube sur pour ans.

Jeudi, BuzzFeed a publié une nouvelle enquête de YouTube, le moteur de recommandation et a constaté que un nouveau compte en cliquant sur une politique non partisane vidéo serait de le regarder extrémistes contenu à l’intérieur de six vidéos.

La formulation de cette question est le pourcentage élevé d’utilisateurs qui disent qu’ils ont accepté les suggestions de la Prochaine algorithme de 81%, selon Pew,” BuzzFeed a écrit. “Une personne sur cinq, les utilisateurs de YouTube entre les âges de 18 et 29 déclarent regarder les vidéos recommandées régulièrement, ce qui rend la plate-forme montré une tendance à sauter de l’actualité de manière fiable à la pure conspiration d’autant plus inquiétant.”

YouTube déplacer laisse de nombreuses questions en restant sur les types de vidéos seront jugées à la limite. Dans une interview, la société a suggéré que les utilisateurs doivent lire publiquement affiché des lignes directrices communautaires pour les conseils sur les types de vidéos peut venir près de la réception d’une redoutable grève.

L’application de la nouvelle politique va tomber à un mélange de l’homme modérateurs de la machine et de l’apprentissage des systèmes, a indiqué la compagnie. Les modérateurs vont former le système de reconnaître la limite de vidéos, et puis le système sera déployé afin de passer en revue les vidéos automatiquement et décider si elles sont admissibles à une promotion.

La nature opaque du processus pourrait aider à empêcher les utilisateurs de YouTube de de jeu le système. Mais il est aussi très susceptibles de conduire à la frustration avec les utilisateurs qui ont le sentiment que leurs vidéos ont été injustement étiqueté comme limite de contenu.

Les vidéos qui sont marqués à la limite ne sera pas supprimé à partir du site, a indiqué la compagnie. Si un utilisateur s’abonne à une chaîne qui comporte à la limite de contenu, ces vidéos seront encore éligibles pour être montré dans l’abonné recommandations. “Nous pensons que cette modification établit un équilibre entre le maintien d’une plate-forme pour la liberté d’expression et à la hauteur de notre responsabilité envers les utilisateurs,” a indiqué la compagnie dans son billet de blog.

Si le test est réussi, YouTube prévoit de déployer les changements de façon plus générale.

YouTube n’est pas le seul à payer les frais d’attention à des questions au sujet du contenu qui devient populaire en marche de la ligne fine entre l’interdit et le permis. En novembre, Facebook a déclaré qu’il prendrait des mesures pour enrayer la propagation du “sensationnalisme et provocateur” du contenu. “Je crois que ces efforts sur les incitations dans nos systèmes sont quelques-uns des travaux les plus importants, nous faisons de l’ensemble de la société,” le PDG Mark Zuckerberg a écrit dans un billet de blog.