Les différends de Facebook rapportent que son IA ne peut pas détecter les discours de haine ou de violence de manière cohérente

0
131

Le vice-président de l'intégrité de Facebook, Guy Rosen, a écrit dimanche dans un article de blog que la prévalence des discours de haine sur la plate-forme avait chuté de 50 % au cours des trois dernières années, et que « un récit selon lequel la technologie que nous utilisons lutter contre le discours de haine est inadéquat et que nous déformons délibérément nos progrès » était faux.

“Nous ne voulons pas voir de haine sur notre plate-forme, ni nos utilisateurs ou annonceurs, et nous sommes transparents sur notre travail pour la supprimer”, a écrit Rosen. «Ce que ces documents démontrent, c'est que notre travail d'intégrité est un voyage de plusieurs années. Bien que nous ne soyons jamais parfaits, nos équipes travaillent continuellement à développer nos systèmes, à identifier les problèmes et à élaborer des solutions. »

Le message semblait être une réponse à un article de dimanche dans le Wall Street Journal, qui a déclaré que les employés de Facebook chargés de garder le contenu offensant hors de la plate-forme ne pensent pas que l'entreprise est en mesure de le filtrer de manière fiable.

Le rapport du WSJ indique que des documents internes montrent qu'il y a deux ans, Facebook a réduit le temps pendant lequel les examinateurs humains se concentraient sur les plaintes pour discours haineux et a effectué d'autres ajustements qui ont réduit le nombre de plaintes. Cela a à son tour contribué à donner l'impression que l'intelligence artificielle de Facebook avait mieux réussi à faire respecter les règles de l'entreprise qu'elle ne l'était en réalité, selon le WSJ.

Une équipe d'employés de Facebook a découvert en mars que les systèmes automatisés de l'entreprise supprimaient les publications qui généraient entre 3 et 5 % des vues de discours de haine sur la plate-forme sociale, et moins de 1 % de tout le contenu qui enfreignait ses règles contre la violence et l'incitation, a rapporté le WSJ.

Mais Rosen a fait valoir que se concentrer uniquement sur la suppression de contenu était “la mauvaise façon de voir comment nous combattons le discours de haine”. Il dit que la technologie pour supprimer le discours de haine n'est qu'une méthode que Facebook utilise pour le combattre. “Nous devons être sûrs que quelque chose est un discours de haine avant de le supprimer”, a déclaré Rosen.

Au lieu de cela, a-t-il dit, la société pense que se concentrer sur la prévalence des discours de haine que les gens voient réellement sur la plate-forme et comment elle les réduit à l'aide de divers outils est une mesure plus importante. Il a affirmé que pour 10 000 vues d'un contenu sur Facebook, il y avait cinq vues de discours de haine. “La prévalence nous dit ce que les gens voient dans le contenu violant parce que nous l'avons manqué”, a écrit Rosen. “C'est ainsi que nous évaluons le plus objectivement nos progrès, car cela fournit l'image la plus complète.”

Mais les documents internes obtenus par le WSJ ont montré que certains éléments de contenu importants ont pu échapper à Facebook détection, y compris des vidéos d'accidents de voiture montrant des personnes avec des blessures graphiques et des menaces violentes contre des enfants trans.

Le WSJ a produit une série de rapports sur Facebook basés sur des documents internes fournis par la dénonciatrice Frances Haugen. Elle a témoigné devant le Congrès que l'entreprise était consciente de l'impact négatif que sa plateforme Instagram pourrait avoir sur les adolescents. Facebook a contesté le signalement sur la base des documents internes.