Facebook har udgivet konklusionerne af en uafhængig vurdering med hensyn til dens rolle i de seneste morderiske vold i Myanmar. Kort sagt, at virksomheden har erkendt, at det tidligere var ikke at gøre nok for at forhindre dets netværk fra “bliver brugt til at fremkalde division og anspore til offline vold”, men det anføres, at det allerede er begyndt at lave de nødvendige ændringer for at undgå, at det sker igen. Men samtidig viser rapporten, at virksomheden har gjort fremskridt i, hvordan gennemsigtige det handler om moderation, det stopper kort for at gøre alle faste tilsagn om revisioner, som denne i fremtiden — et centralt krav fra aktivister.
Facebook ‘ s håndtering af Myanmar krise er blevet kritiseret af alle fra aktivister til de Forenede Nationer. Tilbage i Maj, som er en koalition bestående af aktivister fra Myanmar, Syrien, og seks andre lande, lavet tre specifikke krav til det sociale netværk. Denne koalition kaldet for vedvarende gennemsigtighed, der er en uafhængig og resten af verden offentlig revision, og en offentlig forpligtelse på lige håndhævelse af standarder på tværs af hver område som Facebook er aktiv i.
99 modersmål, og head = nns 64.000 stykker af indhold, der er fjernet så langt
I forhold til disse krav, Facebook ‘ s rapport er en blandet landhandel. Da det var udført af Business for Social Responsibility, en uafhængig non-profit organisation baseret i San Francisco, er det helt sikkert betragtes som uafhængige, men det stopper korte af det verdensomspændende revisions -, at den koalition, der kaldes for. Selv om Facebook hævder at være enig med værdien af gennemsigtigt offentliggørelse af data om håndhævelsesforanstaltninger og peger mod et nyligt eksempel, der dækker dens Myanmar moderation (også udgivet en lignende rapport om Iran), det gør ingen specifikke forpligtelser om, hvordan regelmæssigt, at det vil offentliggøre disse rapporter i fremtiden.
Koalitionen endelige efterspørgsel, at Facebook lige håndhæver sine standarder i verden — er langt mere vanskeligt at vurdere. Hvert land er enestående, og har samme standarder over hele verden risici, der mangler væsentlige dele af kontekst. For eksempel, Facebook noter Myanmar er et af de største online-fællesskaber, der ikke er standardiseret på Unicode for sin tekst på grund af sin lange periode med isolation fra omverdenen. I stedet bruger de Zawgyi skrift, som Facebook hævder, gør det meget sværere at opdage ulovlige stillinger. Facebook ønsker Myanmar til at overgang til Unicode, og det siger, at det har fjernet Zawgyi som en mulighed for nye brugere.
Facebook har også oprettet et dedikeret team til at løse Myanmars specifikke spørgsmål om platformen, og at team består af 99 native Myanmar højttalere. Selskabet siger, at det har allerede taget action på omkring head = nns 64.000 stykker af indhold fra landet for at overtræde sin hadefuld tale politikker, proaktivt at identificere 63 procent af disse stillinger, før de blev indberettet manuelt. Lignende krav om Facebook ‘systemer’ evner til automatisk at flage indhold er tidligere blevet kritiseret af Myanmar grupper i civilsamfundet, der hævdede, at de udækkede disse meddelelser, at Facebook ‘ s systemer, der tog æren for at identificere.
Globalt netværk har ændret sin troværdige vold politik til dækning af stillinger, der indeholder fejlinformation, der kan medføre overhængende vold eller fysisk skade, og det er “leder i” oprettelse af et separat moderation politik til at håndtere krænkelser af menneskerettighederne.
Alle landets problemer er unikke, men denne rapport tyder på, at Facebook har kæmpet for at forstå de unikke led i Myanmar ‘ s seneste tilfælde af vold. Med flere valg, der lurer i landet i 2020, er det vigtigt, at den platform, der dedikerer nok opmærksomhed til det tidligere isolerede nation og dens 20 millioner Facebook-brugere.