
Bilde: Facebook
Facebooks integritet VP Guy Rosen har lagt ned påstander om at AI -teknologien den bruker for å bekjempe hatefulle ytringer har liten innvirkning og sier at det “ikke er sant”. I stedet hevdet han at utbredelsen av hatefulle ytringer på Facebook har gått ned med nesten 50% de siste tre kvartalene.
“Vi ønsker ikke å se hat på plattformen vår, og heller ikke brukerne eller annonsørene våre, og vi er åpen om arbeidet vårt med å fjerne det,” skrev Rosen i et blogginnlegg.
“Hva disse dokumentene demonstrere er at vårt integritetsarbeid er en flerårig reise. Selv om vi aldri vil være perfekte, jobber teamene våre kontinuerlig med å utvikle systemene våre, identifisere problemer og bygge løsninger. “
Rosens innlegg var et svar på en Wall Street Journal -artikkel som, basert på lekket interne dokumenter, rapporterte at sosiale medier -gigantens AI -teknologi ble opprettet for å fjerne støtende innhold som hatefulle ytringer og voldelige bilder har hatt liten suksess.
Rapporten påpekte at et team av Facebook -ansatte i mars anslått at AI -systemene fjernet innlegg som genererte 3% til 5% av synene på hatefulle ytringer på plattformen, og 0,6% av alt innhold som brutt selskapets politikk mot vold og hets.
Rosen sa imidlertid at “fokus bare på å fjerne innhold er feil måte å se på hvordan vi bekjemper hatytringer”.
“Det er fordi bruk av teknologi for å fjerne hatefulle ytringer bare er en måte å motvirke det på. Vi må være sikre på at noe er hatefulle ytringer før vi fjerner det,” sa han.
“Hvis noe kan være hatefulle ytringer, men vi ikke er sikre nok på at det oppfyller linjen for fjerning, kan teknologien vår redusere innholdets distribusjon eller ikke anbefale grupper, sider eller personer som regelmessig legger ut innhold som sannsynligvis vil bryte vår policyer. Vi bruker også teknologi for å flagge innhold for mer gjennomgang. “
I stedet skisserte han at Facebook måler suksessen basert på utbredelsen av hatytringer folk ser på plattformen, og erklærer sine bare fem visninger pr. hver 10 000 på plattformen.
“Prevalens forteller oss hva som bryter innhold folk ser fordi vi savnet det. Det er hvordan vi mest objektivt vurderer fremdriften vår, ettersom den gir det mest komplette bildet,” sa han.
Rosen benyttet også anledningen til å påpeke at WSJ -rapporten “misforstod” sin proaktive deteksjonsrate, en annen beregning selskapet angivelig bruker for å fortelle hvor god teknologien er til å finne støtende innhold før folk rapporterer det til selskapet.
“Da vi begynte å rapportere våre beregninger om hatefulle ytringer, ble bare 23,6% av innholdet vi fjernet oppdaget proaktivt av systemene våre. Flertallet av det vi fjernet ble funnet av folk. Nå er tallet over 97 %, “Hevdet Rosen.
I forrige måned sa Facebook at det har gjort fremskritt innen AI som ble brukt for å hjelpe til med innholdsmoderering, inkludert introduksjon av Reinforcement Integrity Optimizer (RIO), som veileder en AI -modell for å lære direkte av millioner av nåværende stykker innhold for å evaluere hvor godt det gjorde jobben sin.
Dette blogginnlegget fra Rosen er den siste uttalelsen fra Facebook, da den prøver å fjerne skarpe påstander om virksomheten. Tidligere på måneden tok konsernsjef Mark Zuckerberg offentlig beskyldninger om at den sosiale mediegiganten prioriterer fortjeneste fremfor sikkerhet og velvære, og sa at det også var “bare ikke sant”.
“Argumentet om at vi bevisst presser innhold som gjør folk som er sinte for profitt er dypt ulogiske, “sa han.
Svaret var etter at Facebook -varsleren Frances Haugen fronter det amerikanske senatet som en del av undersøkelsen av Facebooks operasjoner og anklaget den sosiale mediegiganten for bevisst å ha skjult viktig informasjon fra offentligheten for profitt. Under vitnesbyrdet stemplet hun selskapet som “moralsk konkurs” og kastet “valgene som ble gjort inne på Facebook” som “katastrofale for barna våre, vårt privatliv og vårt demokrati”.
Relatert dekning
Facebook sender opphør-brev og ber om at Unfollow Everything skal skrotes.Scott Morrison sier at sosiale medier-plattformer er utgivere hvis de ikke er villige til å identifisere brukere. h3> Relaterte emner:
Sikkerhetssamarbeid CXO Tech Industry Digital Transformation Smart Office