Hvorfor Elon Musk skulle læse Facebooks seneste gennemsigtighedsrapport

0
212

Lad os i dag tale om Facebooks seneste indsats for at gøre platformen mere forståelig for udenforstående – og hvordan dens resultater informerer vores nuværende, tilsyneladende endeløse debat om, hvorvidt du kan har også et socialt netværk og ytringsfrihed.

Start med en observation: i sidste uge rapporterede Pew Research, at et stort flertal af amerikanerne – Elon Musk, for eksempel! — mener, at sociale netværk censurerer indlæg baseret på de politiske synspunkter, de giver udtryk for. Her er Emily A. Vogels:

Stigende en smule i forhold til tidligere år, mener omkring tre fjerdedele af amerikanerne (77%) nu, at det er meget eller noget sandsynligt, at sociale medier med vilje censurere politiske synspunkter, de finder anstødelige, inklusive 41 %, der siger, at dette er meget sandsynligt.

Flertal på tværs af politiske partier og ideologier mener, at disse websteder engagerer sig i politisk censur, men denne opfattelse er især udbredt blandt republikanere. Omkring ni ud af ti republikanere (92 %), inklusive folk, der er slanke i GOP, siger, at sociale medier med vilje censurerer politiske synspunkter, som de finder anstødelige, og 68 % siger, at dette med stor sandsynlighed er tilfældet. Blandt konservative republikanere er dette synspunkt næsten allestedsnærværende, hvor 95 % siger, at disse websteder sandsynligvis censurerer visse politiske synspunkter, og 76 % siger, at dette med stor sandsynlighed forekommer.

En grund til, at jeg finder disse tal interessante er, at sociale netværk selvfølgelig fjerner indlæg baseret på de synspunkter, de udtrykker. Amerikanske sociale netværk er for eksempel alle enige om, at nazister er dårlige, og at du ikke skal have lov til at skrive noget andet på deres sider. Dette er et politisk synspunkt, og det burde ikke være kontroversielt at sige det.

Det er selvfølgelig ikke den centrale klage for de fleste mennesker, der klager over censur på sociale netværk. Republikanerne siger konstant, at sociale netværk styres af liberale, har liberale politikker og censurerer konservative synspunkter for at fremme deres større politiske dagsorden. (Lige med beviserne på, at sociale netværk generelt har været en stor fordel for det konservative øjeblik.)

de besvarer ikke det spørgsmål, du faktisk stillede

Og så når du spørger folk, som Pew gjorde, om sociale netværk censurerer indlæg baseret på politik, svarer de ikke på det spørgsmål, du faktisk stillede. I stedet svarer de på spørgsmålet: For det meste, synes de personer, der driver disse virksomheder, at dele din politik? Og det tror jeg mere eller mindre forklarer 100 procent af forskellen i, hvordan republikanere og demokrater reagerede.

Men uanset om det er på Twitter eller i kongressens haller, foregår denne samtale næsten altid kun på det mest abstrakte niveau. Folk vil klage over individuelle opslag, der bliver fjernet, selvfølgelig, men kun sjældent borer nogen ned i detaljerne: Hvilke kategorier af opslag fjernes, i hvilket antal, og i hvad virksomhederne selv har at sige om de fejl, de laver.

Det bringer os til et dokument, der har et kedeligt navn, men som er fuld af glæde for dem af os, der er nysgerrige og nyder at læse om fejlene i kunstige intelligens-systemer: Facebooks kvartalsvise rapport om fællesskabsstandarder, hvoraf den seneste selskabet udgav i dag som en del af en større “gennemsigtighedsrapport” for sidste halvdel af 2021.

En vigtig ting at fokusere på, uanset om du er en gennemsnitlig bruger, der er bekymret for censur eller for nylig har købt et socialt netværk, der lover at tillade næsten al juridisk tale, er, hvilken slags tale Facebook fjerner. Meget lidt af det er “politisk”, i det mindste i betydningen “kommentarer om aktuelle begivenheder.” I stedet er det indlæg relateret til stoffer, våben, selvskade, sex og nøgenhed, spam og falske konti og mobning og chikane.

Sikkert er nogle af disse kategorier dybt indviklet i politik – for eksempel terrorisme og “farlige organisationer”, eller hvad der kvalificeres som hadefulde ytringer. Men for det meste beskriver denne rapport ting, som Facebook fjerner, fordi det er godt for forretningen. Igen og igen oplever sociale produkter, at deres forbrug falder, når selv en lille procentdel af det materiale, de hoster, inkluderer spam, nøgenhed, lemlæstelse eller folk, der chikanerer hinanden.

Facebook fjerner disse ting, fordi det er godt for erhvervslivet

Normalt taler sociale virksomheder om deres regler i forhold til, hvad de gør “for at holde samfundet sikkert.” Men det mere eksistentielle formål er at holde samfundet tilbage til stedet overhovedet. Det er det, der gør Texas' nye lov om sociale medier, som jeg skrev om i går, potentielt så farlig for platforme: den kræver tilsyneladende, at de hoster materiale, der vil jage deres brugere væk.

Samtidig er det klart, at fjernelse af for mange indlæg også driver folk væk. I 2020 rapporterede jeg, at Mark Zuckerberg fortalte medarbejderne, at censur var den første klage over Facebooks brugerbase.

En mere fornuftig tilgang til regulering af platforme ville begynde med antagelsen om, at private virksomheder skal have lov til at etablere og håndhæve retningslinjer for fællesskabet, om ikke andet fordi deres virksomheder sandsynligvis ikke ville være levedygtige uden dem. Derfra kan vi kræve, at platforme fortæller os, hvordan de modereres, ud fra ideen om, at sollys er det bedste desinfektionsmiddel. Og jo mere vi forstår de beslutninger, platforme træffer, jo smartere er samtalen vi kan have om, hvilke fejl vi er villige til at tolerere.

Som indholdsforskeren Evelyn Douek har skrevet: “Indholdsmoderering vil altid involvere fejl, og derfor er de relevante spørgsmål, hvilke fejlrater der er rimelige, og hvilke slags fejl der bør foretrækkes.”

Facebooks rapport i dag fremhæver to hovedtyper af fejl: dem, der er lavet af mennesker, og dem, der er lavet af kunstige intelligenssystemer.

Start med mennesker. Af årsager, som rapporten ikke afslører, led dens menneskelige moderatorer mellem sidste kvartal af 2021 og første kvartal af dette “et midlertidigt fald i nøjagtigheden af ​​håndhævelsen” på indlæg relateret til narkotika. Som et resultat steg antallet af personer, der anmodede om appeller, fra 80.000 til 104.000, og Facebook gendannede i sidste ende 149.000 opslag, der var blevet uretmæssigt fjernet.

Mennesker havde uden tvivl et bedre kvartal end Facebooks automatiserede systemer , selvom. Blandt problemerne med kunstig intelligens denne gang:

  • Facebook gendannede 345.600 opslag, der uretmæssigt var blevet fjernet for at overtræde politikker relateret til selvskade, op fra 95.300 kvartalet tidligere, pga. “et problem, der fik vores mediematchende teknologi til at handle ikke-krænkende indhold.”
  • Virksomheden gendannede 414.000 indlæg, der var blevet uretmæssigt fjernet for at overtræde politikker relateret til terrorisme, og 232.000 relateret til organiserede hadgrupper, tilsyneladende på grund af det samme problem.
  • Antallet af indlæg det uretmæssigt fjernet for at overtræde politikker relateret til voldeligt og grafisk indhold i sidste kvartal mere end fordoblet til 12.800, fordi automatiserede systemer fejlagtigt fjernede billeder og videoer af Ruslands invasion af Ukraine.

Der var selvfølgelig også god dokumentation for, at automatiserede systemer er i forbedring. Mest bemærkelsesværdigt tog Facebook handling på 21,7 millioner opslag, der overtrådte politikker relateret til vold og tilskyndelse, op fra 12,4 millioner det foregående kvartal, “på grund af forbedringen og udvidelsen af ​​vores proaktive detektionsteknologi.” Det rejser, øh, mere end et par spørgsmål om, hvad der undgik opdagelse i tidligere kvartaler.

Alligevel deler Facebook meget mere om sine fejl end andre platforme gør; YouTube deler f.eks. nogle oplysninger om videoer, der er blevet fjernet ved en fejl, men ikke efter kategori og uden nogen information om de fejl, der blev lavet.

Og alligevel er der så meget mere, vi ville have gavn af at vide – fra Facebook, YouTube og alt det andet. Hvad med at se alle disse data opdelt efter land, for eksempel? Hvad med at se oplysninger om mere eksplicit “politiske” kategorier, såsom indlæg fjernet for at overtræde politikker relateret til sundhedsmisinformation? Og hvad med at se det hele månedligt i stedet for kvartalsvis?

Sandt nok ved jeg ikke, at noget af det ville gøre meget for at flytte den nuværende debat om ytringsfrihed. Partisaner har simpelthen for meget at vinde politisk ved i det uendelige at råbe “censur”, når enhver beslutning relateret til indholdsmoderering går dem imod.

Men jeg ville ønske, at lovgivere i det mindste ville bruge en eftermiddag på at fordybe sig i detaljerne i en rapport som Facebooks, der beskriver både de forretningsmæssige og tekniske udfordringer ved at være vært for så mange menneskers meninger. Det understreger uundgåeligheden af ​​fejl, nogle af dem ganske konsekvensmæssige. Og det rejser spørgsmål, som lovgivere kan besvare via regler, der faktisk kan modstå undersøgelsen af ​​1. ændringsforslag, såsom hvilke rettigheder til at appellere en person skal have, hvis deres opslag eller konto fjernes ved en fejl.

millioner af Facebook-brugere ser deres opslag. fjernet ved fejl

Der er også, tror jeg, en vigtig lektie for Facebook i al den data. Hver tredje måned, ifølge dets egne data, ser millioner af dets brugere deres indlæg fjernet ved en fejl. Det er ikke underligt, at dette over tid er blevet den største klage blandt brugerbasen. Og selvom fejl er uundgåelige, er det også let at forestille sig, at Facebook behandler disse kunder bedre: forklarer fejlen i detaljer, undskylder for den, inviterer brugerne til at indsende feedback om appelprocessen. Og så forbedre den proces.

Status quo, hvor disse brugere kan se et kort automatisk svar, der ikke besvarer nogen af ​​deres spørgsmål, er en verden, hvor støtten til det sociale netværk – og til moderation af indhold generelt – fortsætter med at falde. Om ikke andet for at bevare deres forretninger, så er tiden inde til, at platforme står op for det.