Google utgivelser gratis AI verktøy for å hjelpe bedrifter med å identifisere barn seksuelle overgrep materiale

0
139

Stempling ut spredning av barn seksuelt misbruk materiale (CSAM) er en prioritet for store internett-selskaper. Men det er også en vanskelig og krevende jobb for de som er på frontline — menneskelige moderatorer som har å identifisere og fjerne støtende innhold. Det er grunnen til at Google er i dag lanserer gratis AI-programvare utviklet for å hjelpe disse personene.

De fleste tekniske løsninger i dette domenet arbeid ved å sjekke bilder og videoer mot en katalog av tidligere identifisert støtende materiale. (Se for eksempel: PhotoDNA, et verktøy som er utviklet av Microsoft og brukes av selskaper som Facebook og Twitter.) Denne typen programvare, kjent som en “crawler” er en effektiv måte å stoppe folk deling kjent tidligere identifisert CSAM. Men det kan ikke ta materiale som ikke allerede er merket som ulovlig. For at menneskelig moderatorer har til trinn i og vurdere innhold selv.

Googles AI verktøyet triages flagget materiale, bidrar moderatorer arbeide raskere

Dette er hvor Googles nye AI verktøyet vil hjelpe. Ved hjelp av selskapets ekspertise i maskin visjon, det hjelper moderatorer ved å sortere flagget bilder og videoer og “prioritere de mest sannsynlig CSAM innhold for vurdering.” Dette bør gi en mye raskere gjennomgang av prosessen. I en rettssak, sier Google, AI verktøyet bidro til en moderator “ta handling på 700 prosent mer CSAM innhold i den samme tidsperioden.”

Snakker til Randen, Fred Langford, viseadministrerende DIREKTØR i Internet Watch Foundation (ha vunnet iwf), sa programvare ville “hjelpe lagene som vår egen distribuere våre begrensede ressurser mye mer effektivt.” “I det øyeblikket vi bare å bruke rent mennesker til å gå gjennom innholdet og sier, “ja”, ” nei,” sier Langford. “Dette vil hjelpe med triaging.”

Ha vunnet iwf er en av de største organisasjoner som er dedikert til å stoppe spredningen av CSAM online. Det er basert i STORBRITANNIA, men finansiert av bidrag fra store internasjonale tech selskaper, blant annet Google. Det sysselsetter lag av menneskelig moderatorer til å identifisere misbruk bilder, og opererer tips-linjer i mer enn et dusin land for internett-brukere til å rapportere mistenkelige materiale. Det bærer også ut sin egen undersøkende virksomhet, identifisere områder der CSAM er felles og samarbeide med politiet for å slå dem ned.

Langford sier at på grunn av arten av “fantasifulle påstander om AI,” ha vunnet iwf vil være å teste ut Google s nye AI verktøyet grundig for å se hvordan det utfører, og passer med moderatorer’ arbeidsflyt. Han la til at et verktøy som dette var et steg på veien mot fullt automatiserte systemer som kan identifisere tidligere usett materiale uten menneskelig interaksjon i det hele tatt. “Den slags classifier er litt som den Hellige Gral i vår arena.”

Men, la han til, slike verktøy bør bare være klarert med “clear-cut” tilfeller å unngå å la støtende materiale slip gjennom nettet. “For noen år siden ville jeg ha sagt at sorter av classifier var fem, seks år unna, sier Langford. “Men nå tror jeg vi er bare ett eller to år borte fra å skape noe som er fullstendig automatisert i noen tilfeller.”