Discord revoit ses politiques et ses directives communautaires pour lutter contre la désinformation sur la santé, les comportements hors plateforme et les discours de haine, a annoncé la société vendredi. Il s'agit de la première mise à jour importante de la politique de Discord en près de deux ans et est conçue pour cibler des groupes ou des individus qui participent à la violence organisée, diffusent du matériel anti-vaccination nuisible ou harcèlent d'autres utilisateurs de Discord avec des discours de haine.
Après deux ans de pandémie, Discord clarifie ses politiques concernant la désinformation sur la santé. Dans les nouvelles directives de la communauté, qui entrent en vigueur le 28 mars, Discord indique que les utilisateurs “ne peuvent pas partager d'informations fausses ou trompeuses sur Discord susceptibles de causer des dommages physiques ou sociétaux”. Cela inclut le contenu susceptible d'endommager l'infrastructure physique, de blesser autrui et le contenu qui met en danger la santé publique.
Le changement cible clairement les anti-vaxxeurs qui publient et promeuvent des informations de santé très trompeuses, mais cela ne signifie pas que tous les anti-vaxxeurs seront supprimés de la plate-forme.
“Si quelqu'un publie sur Discord” buvez quatre onces d'eau de javel et votre corps sera débarrassé du coronavirus “, c'est une action”, explique Clint Smith, directeur juridique de Discord, dans une interview avec The Verge. “Le consensus médical ne soutient pas cela en tant que traitement du COVID, et il y a une forte probabilité de préjudice pour quiconque suit ces conseils.”
Tout le contenu anti-vaccination ne disparaîtra pas
Cependant, Smith dit que si quelqu'un publie sur le fait de tenir “des cristaux contre votre poitrine pendant 5 minutes et votre capacité pulmonaire s'améliorera”, dans le contexte de la pandémie, ce n'est pas quelque chose contre quoi Discord va prendre des mesures. “Les cristaux et le pouvoir de guérison des cristaux ne sont pas soutenus par un consensus médical, mais il y a aussi un très faible risque de préjudice pour nos utilisateurs, donc cette déclaration sur les cristaux, nous n'allons pas l'appliquer”, déclare Smith.
Pour décider quand agir, Discord dit qu'il évaluera le contexte des messages, la probabilité de préjudice direct, l'intention d'une affiche de convaincre ou de tromper les autres, et si un groupe ou une affiche a un historique de violations répétées des politiques de Discord. Les utilisateurs de Discord pourront continuer à signaler ce type de contenu en cliquant avec le bouton droit sur n'importe quel message du service et en appuyant sur le bouton Signaler.
De même, Discord pénalisera également les utilisateurs pour les comportements nuisibles qu'ils adoptent en dehors de la plate-forme. Les comportements pertinents incluent l'appartenance à des organisations violentes, les menaces crédibles de violence envers des personnes, des organisations, des événements ou des lieux, et l'appartenance à des groupes qui sexualisent les enfants de quelque manière que ce soit.
Discord limite les comportements hors plateforme aux «catégories de préjudice les plus élevées» de la violence organisée et de la sexualisation des mineurs. “Si un utilisateur de Discord est accusé de possession de drogue… ou impliqué dans la tricherie autour d'un examen scolaire, ce ne sont pas les comportements hors plateforme les plus nocifs que nous allons prendre en compte”, explique Smith. “Nous allons nous concentrer sur les comportements hors plateforme qui présentent le plus grand potentiel de préjudice pour nos utilisateurs et l'expérience Discord de quelqu'un.”
:no_upscale()/cdn.vox-cdn.com/uploads /chorus_asset/file/23270529/Study_Group_Server.png)
Des recherches publiées par l'Institute for Strategic Dialogue l'année dernière ont révélé que des groupes d'extrême droite ont explosé sur des plateformes comme Discord et Steam. Ces groupes peuvent organiser de la violence dans le monde réel ou participer à du harcèlement et à des raids sur les serveurs Discord. Discord a fermé ces types de groupes pendant des années, mais ils sont persistants. De nouveaux groupes apparaissent régulièrement, et même des groupes de protestation sociale peuvent s'organiser sur des plateformes comme Discord ou Facebook, puis, éventuellement, provoquer des violences dans le monde réel. Discord lance des algorithmes de science des données et d'apprentissage automatique sur le problème, mais l'entreprise s'appuie fortement sur des experts externes et d'autres pour signaler le contenu extrémiste.
“C'est un domaine dans lequel nous investissons massivement dans l'établissement de relations avec des experts et des journalistes de confiance”, explique Smith. “Il y a des gens en dehors de Discord qui sont vraiment experts dans les groupes qui promeuvent la violence et la haine, et ils peuvent nous alerter sur les types de groupes que nous devrions interdire sur Discord.”
Smith dit que la société a consulté des universitaires, des groupes comme la Ligue anti-diffamation et le Southern Poverty Law Center, ainsi que des journalistes de médias de confiance. Discord investit également dans des consultants rémunérés dotés d'une expertise spécifique que la plate-forme n'a pas sur son propre personnel.
Discord adopte une approche décentralisée de la modération, la distinguant des plateformes comme Facebook. Au lieu d'analyser de manière proactive les violations de contenu, il s'appuie sur des serveurs individuels pour se modérer et faire remonter le contenu à la modération de l'entreprise si nécessaire. Je compare toujours Discord à mon pub local, car il accueille un large éventail de groupes. Nous ne nous attendrions pas à ce que le propriétaire d'un pub contrôle tous ces différents groupes de conversations, mais vous vous attendez à ce qu'il interdise les groupes en fonction des rapports. Le modèle de Discord signifie qu'il est plus difficile de diffuser des informations erronées sur le service, mais il est idéal pour les groupes de s'organiser en privé sans aucune surveillance évidente et de rassembler des chiffres que vous ne pouvez tout simplement pas faire hors ligne.
Discord a essayé de supprimer les mauvaises acteurs depuis des années
Discord met également en avant les serveurs publics avec une nouvelle balise dans le client bientôt, histoire de rendre un peu plus claire la définition entre serveurs privés et publics. Discord essaie également clairement de chevaucher la frontière entre la gestion de la plate-forme et la confidentialité.
“Vous pouvez imaginer que nous ferons plus d'apprentissage automatique du point de vue de la sécurité sur les conversations qui se déroulent dans grandes communautés publiques, mais nous ne le ferons pas sur des DM privés et des serveurs privés », déclare Smith. “S'il y a une forte attente de confidentialité dans un DM en petit groupe, nous avons l'intention d'honorer cette attente de confidentialité.”
Discord cible également le discours de haine en élargissant ses attributs protégés à la caste, à l'identité de genre, à l'âge, aux maladies graves, etc. Les conditions d'utilisation, la politique de confidentialité et les directives de la communauté incluent également un anglais plus régulier que le langage juridique, ce qui est souvent difficile à comprendre pour les utilisateurs. Des termes tels que NSFW ont également été abandonnés au profit de la limite d'âge, afin de faciliter la tâche des utilisateurs de Discord dans les pays où ces termes ne sont pas largement utilisés.
La plupart de ces changements clés découlent à quel point le monde a changé au cours des dernières années et comment Discord a évolué pour cibler un marché beaucoup plus large. Discord a collecté des fonds dans un effort ambitieux pour aller au-delà du jeu, et le service continue d'attirer un mélange diversifié de communautés en conséquence.
“En 2020, nous étions un groupe de Californiens servir un public axé sur les jeux », plaisante Smith. “En 2022, nous avons des employés à travers les États-Unis, à Toronto, Londres et Amsterdam, et nous avons un public véritablement mondial et large qui va bien au-delà des jeux.”