Google rilascia gratuitamente AI strumento per aiutare le aziende a identificare materiale pedopornografico

0
156

Stamping out la diffusione di materiale pedopornografico (CSAM) è una priorità per le grandi società di internet. Ma è anche difficile e straziante di lavoro per chi è in prima linea — umana moderatori che hanno per identificare e rimuovere i contenuti offensivi. Ecco perché Google è oggi a rilasciare AI software progettato per aiutare queste persone.

Più soluzioni d’avanguardia in questo settore di lavoro, controllando le immagini e i video su un catalogo di precedentemente identificati abusivo di materiale. (Vedi, per esempio: PhotoDNA, uno strumento sviluppato da Microsoft e distribuito da aziende come Facebook e Twitter.) Questo tipo di software, conosciuto come “crawler”, è un modo efficace per interrompere la condivisione conosciuto precedentemente identificato CSAM. Ma non può prendere il materiale che non sia già stato contrassegnato come illegale. Per questo, umano moderatori passaggio e revisione dei contenuti stessi.

Google AI tool triages contrassegnati materiale, aiutando i moderatori di lavorare più velocemente

Questo è dove il nuovo Google AI tool sarà di aiuto. Utilizzando l’esperienza dell’azienda nella macchina di visione, si assiste moderatori ordinamento contrassegnati immagini e video, e “dare la priorità più probabile CSAM contenuti per la revisione.” Questo dovrebbe consentire molto più rapido processo di revisione. In uno studio, dice Google, l’IA strumento ha consentito un moderatore “intervenire su 700 per cento in più CSAM contenuto nello stesso periodo di tempo.”

Parlando a The Verge, Fred Langford, deputy CEO di Internet Watch Foundation (IWF), ha detto che il software potrebbe “aiutare le squadre come la nostra distribuire risorse limitate in modo molto più efficace.” “Al momento abbiamo solo uso puramente umani, per passare attraverso il contenuto e dire, ‘si’, ‘no”, dice Langford. “Questo aiuterà con la valutazione.”

L’IWF è una delle più grandi organizzazioni dedicate a fermare la diffusione del CSAM online. Nel regno UNITO, ma finanziati da contributi da parte di grandi aziende di tecnologia, tra cui Google. Si avvale di squadre di umani moderatori per identificare l’abuso di immagini, e l’opera in punta di linee in più di una dozzina di paesi, per gli utenti di internet per segnalare il sospetto di materiale. Inoltre, svolge le proprie operazioni investigative; individuazione dei siti dove CSAM è condivisa e di lavoro con le forze dell’ordine di arrestarli.

Langford dice che a causa della natura di “fantastico affermazioni fatte sull’intelligenza artificiale, l’IWF sarà il test di Google nuova IA strumento a fondo per vedere come si svolge e si adatta con i moderatori flusso di lavoro. Ha aggiunto che strumenti come questo fosse un passo verso di sistemi completamente automatizzati, in grado di identificare inedite materiale senza interazione umana. “Che tipo di classificazione è un po ‘ come il Santo Graal nella nostra arena.”

Ma, ha aggiunto, tali strumenti dovrebbero essere di fiducia con il “taglio netto” casi per evitare di lasciare abusivo di materiale di scivolare attraverso la rete. “Un paio di anni fa avrei detto che quel tipo di classificazione, di cinque, sei anni”, dice Langford. “Ma ora penso che siamo solo uno o due anni di distanza dalla creazione di qualcosa che è completamente automatizzato, in alcuni casi.”