Facebook a accidentellement perdu une partie de sa politique de modération pendant trois ans

0
135

Instagram a accidentellement interdit une publication critiquant l'isolement parce que Facebook avait égaré la politique l'autorisant, selon une nouvelle décision du Facebook Oversight Board (FOB).

Le Le comité de surveillance semi-indépendant affirme que le site appartenant à Facebook n'aurait pas dû supprimer un message sur Abdullah Öcalan, membre fondateur du Parti militant des travailleurs du Kurdistan (PKK). Facebook désigne Öcalan et le PKK « entités dangereuses » que les utilisateurs ne peuvent pas soutenir sur ses plateformes. En janvier, les modérateurs ont appliqué cette politique à un message critiquant l'emprisonnement et l'isolement cellulaire d'Öcalan – une pratique que les Nations Unies ont considérée comme une forme de torture – dans une prison turque.

« Le Conseil est préoccupé par le fait que des directives spécifiques pour les modérateurs .. . a été perdu pendant trois ans”

L'utilisateur a saisi le Conseil de surveillance, qui a accepté d'examiner le cas. Comme il l'a fait, Facebook a apparemment « a découvert qu'un document d'orientation interne sur la politique relative aux personnes et organisations dangereuses n'avait pas été transféré par inadvertance à un nouveau système d'examen en 2018 ». La politique avait été élaborée en 2017 en partie à cause du débat sur les conditions de vie d'Öcalan, et elle “permet de discuter des conditions de confinement pour les personnes désignées comme dangereuses”. Mais les directives internes n'ont jamais été rendues publiques aux utilisateurs de Facebook ou d'Instagram – et Facebook n'a réalisé qu'il avait complètement abandonné les directives de modération lorsque l'utilisateur a fait appel.

« Si le conseil n'avait pas été sélectionné ce cas pour examen, les directives seraient restées inconnues des modérateurs de contenu, et une quantité importante d'expression dans l'intérêt public aurait été supprimée », indique la décision de la FOB. Facebook a refusé de commenter s'il considère cette évaluation exacte.

“Le conseil d'administration craint que les directives spécifiques à l'intention des modérateurs sur une exception politique importante aient été perdues pendant trois ans”, poursuit la décision de la FOB. Alors que Facebook a restauré la publication sur Öcalan en avril, il a déclaré au conseil d'administration qu'il n'était “pas techniquement possible” de voir combien d'autres publications auraient pu être supprimées car les modérateurs n'étaient pas au courant de l'exception. « Le conseil d'administration estime que l'erreur de Facebook a pu entraîner la suppression à tort de nombreux autres messages et que les rapports de transparence de Facebook ne sont pas suffisants pour évaluer si ce type d'erreur reflète un problème systémique. »

“Ce cas démontre pourquoi les règles publiques sont importantes pour les utilisateurs”

La décision FOB pousse largement Facebook à rendre ses règles plus transparentes. « Ce cas démontre pourquoi les règles publiques sont importantes pour les utilisateurs : non seulement elles les informent de ce qui est attendu, mais leur permettent également de signaler les erreurs de Facebook », dit-il. La décision indique que Facebook procède à un examen de la façon dont la politique n'a pas pu être transférée, et la FOB a proposé une série de recommandations supplémentaires facultatives. Ils incluent la conduite d'un processus d'examen pour voir si d'autres politiques ont été perdues, ainsi que la clarification publique des limites de son interdiction de soutenir des « individus et organisations dangereux ».

Les réseaux sociaux comme Facebook et Instagram gardent souvent secrètes certaines parties de leurs politiques, affirmant que la publication de règles de modération totalement précises permet aux trolls et autres mauvais acteurs de jouer avec le système. Cependant, comme le note la FOB, ce genre de secret sur un service énorme et diffus peut faciliter les problèmes de communication, comme cela a apparemment été le cas dans ce cas.