Google releases gratis AI tool om bedrijven te helpen identificeren van seksueel misbruik van materiaal

0
139

Het stempelen van de verspreiding van kinderpornografie (CSAM) is een prioriteit voor het grote internet bedrijven. Maar het is ook een moeilijke en aangrijpende taak voor degenen die op de frontlinie van de mens — moderatoren die hebben te identificeren en verwijderen van onrechtmatige inhoud. Dat is de reden waarom Google is vandaag de dag het vrijgeven van gratis AI-software is ontworpen om te helpen deze personen.

De meeste tech-oplossingen in dit domein werken door het controleren van afbeeldingen en video ‘ s tegen een catalogus van de eerder gesignaleerde beledigend materiaal. (Zie bijvoorbeeld: PhotoDNA, een tool ontwikkeld door Microsoft en ingezet door bedrijven zoals Facebook en Twitter.) Dit soort software staat bekend als “crawler”, is een effectieve manier om te stoppen met mensen te delen bekend is eerder geïdentificeerd CSAM. Maar het kan niet de vangst van materiaal dat nog niet is gemarkeerd als illegaal. Voor de menselijke moderators hebben om stap in en beoordeel de inhoud zelf.

Google AI tool triages gemarkeerd materiaal, het helpen van de moderators sneller werken

Dit is waar Google ‘ s nieuwe AI-tool zal helpen. Met behulp van de expertise van de vennootschap in machine vision, het helpt moderators sorteren gemarkeerde beelden en video ‘ s en “de prioritering van de meest waarschijnlijke CSAM inhoud te beoordelen.” Dit moet zorgen voor een veel snellere controle. In één proef, zegt Google, de AI tool geholpen met een moderator-actie ondernemen op 700 procent meer CSAM inhoud over dezelfde periode.”

Spreken tot De Rand, Fred Langford, adjunct-directeur van de Internet Watch Foundation (IWF), zei de software zou “helpen teams als onze eigen implementatie van onze beperkte middelen veel effectiever.” “Op het moment dat we gebruik gewoon puur mensen om te gaan door de inhoud en zeggen, ‘yes’, ‘no’, zegt Langford. “Dit zal helpen met triaging.”

De IWF is één van de grootste organisaties gericht op het stoppen van de verspreiding van CSAM online. Het is gevestigd in het verenigd koninkrijk, maar gefinancierd door bijdragen van grote internationale tech bedrijven, waaronder Google. Er werken teams van de menselijke moderators te identificeren misbruik beeldmateriaal, en werkt tip-lijnen in meer dan een dozijn landen voor internet gebruikers naar een rapport verdacht materiaal. Het voert ook een eigen onderzoeks-activiteiten; het identificeren van sites waar CSAM wordt gedeeld en het werken met de politie om hen te sluiten.

Langford zegt dat, omdat de aard van “fantastische beweringen over AI,” de IWF zal het testen van Google ‘s nieuwe AI-tool grondig te zien hoe hij presteert en past met moderators’ workflow. Hij voegde eraan toe dat hulpmiddelen, zoals deze waren een stap in de richting van volledig geautomatiseerde systemen die kunnen identificeren onuitgegeven materiaal zonder menselijke interactie. “Dat soort classifier is een beetje als de Heilige Graal in onze arena.”

Maar, voegde hij eraan toe, zoals gereedschap mag alleen worden vertrouwd met ‘duidelijke’ gevallen te voorkomen dat grof materiaal door de mazen van het net. “Een paar jaar geleden zou ik gezegd hebben dat soort classifier was vijf, zes jaar weg,” zegt Langford. “Maar nu denk ik dat we slechts één of twee jaar weg van het creëren van iets dat volledig geautomatiseerd is in sommige gevallen.”