D’enrayer la propagation de l’abus sexuel d’enfants matériel (CSAM) est une priorité pour les grandes entreprises de l’internet. Mais c’est aussi difficile et pénible travail pour ceux qui sont sur la ligne de front — de l’homme des modérateurs qui ont d’identifier et de supprimer les contenus abusifs. C’est pourquoi Google est aujourd’hui libre IA logiciel conçu pour aider ces personnes.
La plupart des solutions de haute technologie dans ce domaine de travail en cochant des images et des vidéos à l’encontre d’un catalogue déjà identifié matériel abusif. (Voir, par exemple: PhotoDNA, un outil développé par Microsoft et déployé par des entreprises comme Facebook et Twitter.) Ce genre de logiciel, connu comme un “robot” est un moyen efficace pour empêcher les gens de partager connue précédemment identifiés CSAM. Mais il ne peut pas attraper le matériel qui n’a pas déjà été marqué comme illégale. Pour cela, l’homme modérateurs ont d’étape et de passer en revue le contenu eux-mêmes.
Google IA outil trie marqué matériel, aider les modérateurs à travailler plus vite
C’est là que Google nouvelle IA outil aidera. À l’aide de l’expertise de l’entreprise dans une machine de vision, il aide les modérateurs par tri marqué des images et des vidéos et de la “la priorité la plus probable CSAM contenu de l’examen.” Cela devrait permettre une plus rapide processus de révision. Dans un essai, dit Google, l’IA a permis à un modérateur “de prendre des mesures sur 700 pour cent de plus CSAM contenu au cours de la même période de temps.”
Parlant de La Verge, Fred Langford, directeur général adjoint de l’Internet Watch Foundation (IWF), a déclaré le logiciel “aider les équipes à l’instar de notre propre déployer nos ressources limitées de manière beaucoup plus efficace.” “Pour le moment nous avons juste une utilisation purement humains à aller par le biais de contenus et de dire, “oui”, ” non,” dit Langford. “Cela va aider à faire le triage.”
L’IWF est l’une des plus grandes organisations qui se consacrent à l’arrêt de la propagation de la CSAM en ligne. Il est basé au royaume-UNI, mais financés par les contributions des grandes entreprises de haute technologie, y compris Google. Il emploie des équipes de l’homme modérateurs pour identifier les images d’abus, et exploite la pointe des lignes dans plus d’une douzaine de pays pour les utilisateurs d’internet de rapport matériel suspect. Elle réalise également ses propres opérations d’enquête; d’identifier les sites où CSAM est partagée et de travailler avec l’application de la loi pour les arrêter.
Langford dit qu’en raison de la nature de “fantastique revendications faites à propos de l’IA, de la” le FORUM sera de tester Google nouvelle IA de l’outil à fond pour voir comment il se comporte et s’intègre avec les modérateurs du flux de travail. Il a ajouté que de tels outils ont été une étape vers des systèmes automatisés qui peuvent identifier les inédites de matériel sans interaction humaine. “Ce type de classificateur est un peu comme le Saint Graal dans notre arène.”
Mais, il a ajouté, de tels outils ne doit être digne de confiance avec “claire” des cas d’éviter de laisser matériel abusif glisser à travers le net. “Il y A quelques années, j’aurais dit que sorte de classificateur a cinq, six ans,” dit Langford. “Mais maintenant, je pense que nous ne sommes qu’à un ou deux ans de la création de quelque chose qui est entièrement automatisé dans certains cas.”