At bekæmpe spredningen af seksuelt misbrug af børn materiale (CSAM) er en prioritet for store internet-firmaer. Men det er også et vanskeligt og rystende job for dem, der er i forreste række — menneskelige redaktører, der har til at identificere og fjerne stødende indhold. Det er derfor, at Google er i dag at udgive gratis AI software designet til at hjælpe disse personer.
De fleste tech løsninger på dette område arbejde, ved at markere de billeder og videoer, mod et katalog over tidligere identificerede retsstridigt materiale. (Se for eksempel: PhotoDNA, et værktøj, der er udviklet af Microsoft og anvendes af selskaber, som Facebook og Twitter.) Denne form for software, der er kendt som en “crawler”, er en effektiv måde at stoppe, at folk deler kendt tidligere identificeret CSAM. Men det kan ikke fange materiale, som ikke allerede er markeret som ulovlig. For at den menneskelige moderatorer nødt til at træde til og gennemgang af indhold i sig selv.
Google ‘ s AI værktøj triages flag materiale, hjælper moderatorer arbejde hurtigere
Dette er, hvor Google ‘ s nye AI-værktøj, der vil hjælpe. Ved hjælp af virksomhedens ekspertise i maskinen vision, det hjælper moderatorer ved sortering markeret billeder og videoer, og “prioritering af den mest sandsynlige CSAM indhold til gennemgang”. Dette skulle give mulighed for en langt hurtigere at gennemgå processen. I et forsøg, siger Google, AI værktøj i hjalp en moderator “tage action på 700 procent mere CSAM indhold over den samme periode.”
Tale til Randen, Fred Langford, stedfortrædende administrerende DIREKTØR for Internet Watch Foundation (IWF), sagde, at den software, der ville “hjælpe teams som vores egen implementere vores begrænsede ressourcer langt mere effektivt.” “I øjeblikket er vi bare bruge rent mennesker til at gå gennem indhold og sige, “ja, “” nej,” siger Langford. “Dette vil hjælpe med triaging.”
IWF er en af de største organisationer, der er dedikeret til at standse spredning af CSAM online. Det er baseret i det forenede KONGERIGE, men finansieres af bidrag fra de store international tech-virksomheder, herunder Google. Det beskæftiger hold af menneskelige redaktører, for at identificere misbrug af billeder, og fungerer tip-linjer i mere end et dusin lande for internet-brugere til at rapportere mistanke om materiale. Det er også udøver sin egen efterforskning operationer; at identificere steder hvor CSAM er fælles og arbejder med håndhævelse af loven til at lukke dem ned.
Langford siger, at på grund af karakteren af “fantastiske påstande om AI,” IWF vil være at afprøve Googles nye AI værktøj grundigt for at se, hvordan det fungerer og passer med moderatorer ” workflow. Han tilføjede, at værktøjer som dette var et skridt i retning af fuldt automatiserede systemer, der kan identificere hidtil uset materiale uden menneskelig interaktion på alle. “Den slags sigten er lidt ligesom den Hellige Gral i vores arena.”
Men, tilføjede han, disse værktøjer bør kun blive betroet med “clear cut” sager til at undgå at lade retsstridige materiale, der falder igennem nettet. “For et par år siden ville jeg have sagt, at sortere i sigten var fem, seks år,” siger Langford. “Men nu tror jeg, vi er kun ét eller to år væk fra at skabe noget, der er fuldt automatiseret i nogle tilfælde.”