La plongée profonde du WSJ dans les trous de lapin des troubles de l'alimentation sur TikTok explique un changement de politique soudain

0
188

Un rapport troublant du Wall Street Journal explore les expériences personnelles de jeunes filles qui ont été envoyées dans des terriers de lapin de défis de perte de poids extrêmes, de techniques de purge et de régimes mortels via TikTok, contribuant au développement de troubles de l'alimentation ou aggravant ceux qui existent déjà. . Le WSJ a fait sa propre expérience pour voir comment l'algorithme de TikTok peut potentiellement promouvoir ce type de contenu préjudiciable. Ses conclusions pourraient expliquer la décision soudaine de TikTok de modifier le fonctionnement de son système de recommandation vidéo.

Comme détaillé dans le rapport, le WSJ a créé plus de 100 comptes “qui ont parcouru l'application avec peu d'intervention humaine”, dont 12 étaient des robots enregistrés auprès d'enfants de 13 ans qui ont passé du temps sur des vidéos concernant la perte de poids, l'alcool et le jeu. Un graphique inclus dans le rapport montre que dès que l'un des robots a brusquement cessé de regarder des vidéos liées au jeu et a commencé à passer du temps sur des vidéos sur la perte de poids, l'algorithme de TikTok s'est ajusté en conséquence ; il a rapidement augmenté le nombre de vidéos de perte de poids que le bot a vues pour expliquer ce changement de comportement.

“Bien que cette expérience ne reflète pas l'expérience de la plupart des gens sur TikTok, même une personne ayant cette expérience est une de trop ”

À la fin de son expérience, le WSJ a découvert que sur les 255 000 vidéos que les robots ont regardées au total, 32 700 d'entre elles contenaient une description ou des métadonnées correspondant à une liste de centaines de mots-clés relatifs à la perte de poids. 11 615 vidéos comportaient des descriptions textuelles correspondant à des mots-clés pertinents pour les troubles de l'alimentation, tandis que 4 402 avaient une combinaison de mots-clés indiquant la normalisation des troubles de l'alimentation.

Un certain nombre de ces vidéos utilisaient des orthographes différentes pour les mots-clés liés aux troubles de l'alimentation afin d'éviter d'être signalés par TikTok. Après que le WSJ a alerté la plate-forme sur un échantillon de 2 960 vidéos liées aux troubles de l'alimentation, 1 778 ont été supprimées. Juste un jour avant la publication du rapport du WSJ, TikTok a annoncé qu'il travaillait sur de nouvelles façons d'empêcher la formation de ces dangereux terriers de lapin. Ce changement s'est également produit quelques jours seulement après que le WSJ a déclaré avoir contacté TikTok pour une déclaration sur son histoire à venir, il est donc possible que TikTok ait déployé la mise à jour de manière préventive avant la publication du rapport.

Dans son article, TikTok reconnaît qu'il n'est pas toujours sain de regarder certains types de contenu encore et encore, y compris des vidéos liées aux régimes extrêmes et à la forme physique. Il travaille maintenant sur un moyen de déterminer si son système de recommandation diffuse involontairement des vidéos qui pourraient ne pas enfreindre les politiques de TikTok, mais pourraient être nocives si elles étaient consommées de manière excessive. La plate-forme indique également qu'elle teste un outil qui permettra aux utilisateurs d'empêcher les vidéos contenant certains mots ou hashtags d'apparaître sur leur page For You.

“Bien que cette expérience ne reflète pas l'expérience de la plupart des gens sur TikTok, même une personne ayant cette expérience est une de trop”, a déclaré le porte-parole de TikTok, Jamie Favazza, dans une déclaration à The Verge. « Nous autorisons le contenu éducatif ou axé sur le rétablissement parce que nous comprenons qu'il peut aider les gens à voir qu'il y a de l'espoir, mais le contenu qui favorise, normalise ou glorifie les troubles de l'alimentation est interdit. » Le porte-parole a également souligné que TikTok donne accès à la hotline de la National Eating Disorder Association au sein de l'application.

Si cette situation vous semble familière, c'est parce qu'Instagram l'a déjà vécue (et s'en occupe toujours). Après que le lanceur d'alerte Francis Haugen a divulgué les papiers Facebook, une collection de documents internes révélateurs de Facebook, Instagram a travaillé rapidement pour colmater les trous de son navire en perdition.

Les papiers montrent que Facebook a fait ses propres recherches sur l'impact d'Instagram sur les adolescents, et a découvert que l'application pouvait faire des ravages sur la santé mentale des adolescents et aggraver l'image corporelle des jeunes filles. Environ un mois plus tard, Instagram a annoncé son intention d'introduire une fonctionnalité qui « dissuadera » les adolescents de visionner du contenu potentiellement dangereux. Il a également déployé une fonctionnalité « faire une pause » qui invite les utilisateurs à fermer l'application s'ils ont passé un certain temps sur la plate-forme, allant de 10, 20 ou 30 minutes.

Connexes

TikTok révèle certains des secrets et des angles morts de son algorithme de recommandation