Facebook est de faire l’IA qui peut identifier offensive des mèmes

0
202

Facebook est les modérateurs ne peut pas regarder à travers toutes les images qui sont affichées sur l’énorme plate-forme, de sorte que Facebook est la construction de l’IA pour les aider. Dans un billet de blog aujourd’hui, Facebook décrit un système intégré appelé Rosetta qui utilise l’apprentissage de la machine pour identifier le texte dans des images et des vidéos, puis de les transcrire en quelque chose de lisible par la machine. En particulier, Facebook est de trouver cet outil utile pour transcrire le texte sur les mèmes.

Texte de la transcription outils ne sont rien de nouveau, mais Facebook confronté à des défis différents en raison de la taille de sa plate-forme et la variété des images qu’il voit. Rosetta est dit vivre maintenant, l’extraction de texte à partir de 1 milliard d’images et d’images vidéo par jour à travers à la fois Facebook et Instagram.

Facebook sait besoins mème reconnaissance

Maintenant, ce n’est pas tout à fait clair ce que Facebook est en train de faire avec les données. C’est utile pour les fonctionnalités de base comme la recherche de la photo et les lecteurs d’écran, le blog de points. Mais on dirait également que Facebook commence à le mettre vers de plus grands objectifs, à l’instar de déterminer ce qui serait intéressant à mettre dans votre fil d’Actualité, et, plus important encore, essayer de comprendre ce qui les mèmes sont juste dingo mèmes et qui sont en fait de la propagation des discours de haine ou d’autres commentaires offensants.

Facebook dit d’extraction de texte et d’apprentissage de la machine sont mises à profit pour “identifier automatiquement le contenu qui viole notre haine de la politique” et que c’est de le faire en plusieurs langues. Étant donné que la société bien connue de la modération des questions, un système qui fonctionne bien, qui peut automatiquement drapeau potentiellement problématiques, les images pourraient être d’une aide réelle.