Facebook deler AI -fremskritt som forbedrer innholdsmoderering

0
123

 Stephanie Condon

Av Stephanie Condon for Between the Lines | 18. august 2021 – 17:40 GMT (18:40 BST) | Tema: Kunstig intelligens

Facebook delte onsdag noen av fremskrittene innen AI som bidrar til selskapets kolossale oppgave å håndheve fellesskapsstandarder på tvers av plattformene. Nye teknikker og systemer som Facebook raskt har flyttet fra forskning til produksjon, for eksempel Reinforcement Integrity Optimizer (RIO), bidrar til å redusere mengden hatefulle ytringer og annet uønsket innhold som Facebook -brukere ser, sa selskapet.

“AI er et utrolig raskt bevegelig felt, og mange av de viktigste delene av våre AI-systemer i dag er basert på teknikker som egenkontroll, som virket som en fjernt fremtid for bare år siden,” Facebook CTO Mike Schroepfer sa til journalister onsdag.

I Community Standards Enforcement Report som ble publisert onsdag, sa Facebook at forekomsten av hatytringer i andre kvartal 2021 gikk ned for tredje kvartal på rad. Dette skyldtes forbedringer i proaktivt å oppdage hatefulle ytringer og rangeringsendringer i Facebook News Feed.

I 2. kvartal var det fem visninger av hatytringer for hver 10.000 visning av innhold ifølge rapporten. Det er ned fra fem til seks visninger per 10.000 visninger i 1. kvartal.

I mellomtiden har selskapet 31,5 millioner stykker hate -speech -innhold fra Facebook i 2. kvartal, mot 25,2 millioner i 1. kvartal og 9,8 millioner fra Instagram, opp fra 6,3 millioner i 1. kvartal.

Systemer som RIO, som ble introdusert sent i fjor, hjelper selskapet proaktivt med å oppdage hatefulle ytringer.

Den klassiske tilnærmingen til opplæring av AI bruker et fast datasett for å trene en modell som deretter distribueres for å ta beslutninger om nye innholdsstykker. Rio, derimot, veileder en AI -modell for å lære direkte av millioner av nåværende innholdsstykker. Den evaluerer hele tiden hvor godt den gjør jobben sin, og den lærer og tilpasser seg for å gjøre Facebook -plattformer sikrere over tid.

“Denne typen end-to-end-læring er utrolig verdifull for å håndheve fellesskapsstandarder,” sa Schroepfer. “Fordi problemets natur alltid utvikler seg ved siden av aktuelle hendelser, når nye problemer dukker opp, må systemene våre raskt kunne tilpasse oss. Forsterkningslæring er en kraftig tilnærming for å hjelpe AI til å møte nye utfordringer når det er mangel på gode treningsdata. Vi forventer at systemet vårt RIO fortsetter å redusere forekomsten av hatytringer og annet uønsket innhold langt ut i fremtiden, noe som er veldig oppmuntrende for en slik ny teknologi. “

Facebook erstatter også skreddersydde systemer med mer generelle systemer i et “overraskende tempo”, sa Schroepfer. Han sa også at de ser “imponerende forbedringer” i multimodale AI-modeller, som kan brukes på flere språk; flere metoder som tekst, bilder og video; og på tvers av flere politikkområder.

I tillegg proklamerte Schroepfer fremgangen Facbook -forskere har gjort innen “zero shot” og “few shot” -læring, noe som gjør at AI -systemer kan gjenkjenne krenkende innhold, selv om de aldri har sett det før eller bare har sett noen få eksempler av det under trening.

“Nullskudd og få skuddlæring er et av de mange banebrytende AI -domenene der vi har gjort store forskningsinvesteringer, og vi forventer å se resultater i det kommende året,” sa Schroepfer.

Facebooks AI -systemer utfyller arbeidet med titusenvis av enkeltpersoner for å håndheve fellesskapsstandarder.

Relaterte emner:

Social Enterprise Digital Transformation CXO Internet of Things Innovation Enterprise Software  Stephanie Condon

Av Stephanie Condon for Between the Lines | 18. august 2021 – 17:40 GMT (18:40 BST) | Tema: Kunstig intelligens