Le Conseil de surveillance mis en place par Facebook a publié aujourd'hui une décision appelant la plateforme à commencer une évaluation indépendante du rôle de la plateforme dans l'augmentation du risque de violence en Éthiopie, dans le cadre d'une décision plus spécifique sur un post qui a fait des allégations infondées sur les civils tigréens.
La décision intervient un an après une guerre civile en cours entre le gouvernement éthiopien et les rebelles dans la région du nord du Tigré, qui a créé une crise humanitaire crise qui a laissé des centaines de milliers de personnes confrontées à des conditions proches de la famine et chassé des millions de leurs foyers.
Facebook a été critiqué pour son rôle dans le conflit éthiopien, des observateurs faisant des parallèles avec le rôle de l'entreprise dans le génocide des musulmans Rohingya au Myanmar. Là-bas, une campagne en ligne menée par des militaires du Myanmar a attisé la haine contre les groupes minoritaires Rohingya et a conduit à des actes de meurtre de masse et de nettoyage ethnique. En Éthiopie, des rumeurs similaires et des incitations à la violence ont pu proliférer, malgré le fait que de nombreux employés de Facebook auraient sonné l'alarme au sein de l'entreprise.
Le manque d'action de Facebook a apparemment été reconnu par le Conseil de surveillance. Il a recommandé à Meta de « commander une évaluation indépendante de la diligence raisonnable en matière de droits humains sur la façon dont Facebook et Instagram ont été utilisés pour diffuser des discours de haine et des rumeurs non vérifiées qui augmentent le risque de violence en Éthiopie » et d'ajouter des conseils spécifiques sur les rumeurs pendant la guerre et les conflits à sa communauté. Normes.
“Conformément à la décision contraignante du conseil, nous avons supprimé le contenu du dossier »
« Conformément à la décision contraignante du conseil, nous avons supprimé le contenu du dossier », a déclaré Le porte-parole de Facebook Jeffrey Gelman dans un communiqué. « Nous examinons l'intégralité de la décision et des recommandations du conseil d'administration, et conformément aux statuts, nous répondrons dans les 30 jours. »
Le contenu au cœur de la décision était un message en amharique qui a été téléchargé sur la plate-forme en juillet 2021 et affirmait sans preuve que le Front populaire de libération du Tigré (TPLF) avait tué et violé des femmes et des enfants dans la région éthiopienne d'Amhara avec l'aide de civils tigréens.
Après que le message ait été signalé par des systèmes automatisés de détection de la langue, une première décision a été prise par un modérateur humain de le supprimer. L'utilisateur qui avait publié le contenu a fait appel de la décision, mais un deuxième modérateur de contenu a confirmé qu'il enfreignait les normes communautaires de Facebook. L'utilisateur a ensuite déposé un recours auprès du Conseil de surveillance, qui a accepté d'examiner le cas.
En fin de compte, le Conseil a constaté que le contenu violait la norme communautaire de Facebook sur la violence et l'incitation, et il a confirmé que la décision de le retirer était correcte. Le Conseil a également critiqué le choix de Meta de restaurer le contenu avant qu'une décision finale ne soit prise.