En oroande rapport från Wall Street Journal gräver i de personliga erfarenheterna av unga flickor som skickades ner i kaninhålen av extrema viktminskningsutmaningar, utrensningstekniker och dödliga dieter genom TikTok, vilket bidrog till utvecklingen av ätstörningar eller förvärrade befintliga. . WSJ gjorde sitt eget experiment för att se hur TikToks algoritm potentiellt kan främja denna typ av skadligt innehåll – dess resultat kan förklara TikToks plötsliga beslut att ändra hur dess videorekommendationssystem fungerar.
Som beskrivs i rapporten skapade WSJ över 100 konton “som bläddrade i appen med lite mänskligt ingrepp”, varav 12 var bots registrerade för 13-åringar som spenderade tid på videor om viktminskning, alkohol och hasardspel. Ett diagram som ingår i rapporten visar att så snart en av botarna plötsligt slutade titta på spelrelaterade videor och började lägga tid på videor om viktminskning istället, justerade TikToks algoritm sig därefter; det ökade snabbt antalet viktminskningsvideor som boten såg för att förklara denna förändring i beteende.
“Även om det här experimentet inte speglar upplevelsen de flesta har på TikTok, är ens en person som har den upplevelsen en för mycket ”
I slutet av sitt experiment fann WSJ att av de 255 000 videor som botarna tittade på totalt innehöll 32 700 av dem en beskrivning eller metadata som matchade en lista med hundratals nyckelord som rör viktminskning. 11 615 videor hade textbeskrivningar som matchade sökord som är relevanta för ätstörningar, medan 4 402 hade en kombination av sökord som indikerade normalisering av ätstörningar.
Ett antal av dessa videor använde enligt uppgift olika stavningar för ätstörningsrelaterade sökord för att undvika att bli flaggade av TikTok. Efter att WSJ larmade plattformen om ett urval av 2 960 ätstörningsrelaterade videor togs 1 778 bort – WSJ säger att det är oklart om det togs ner av TikTok eller skaparna själva.
Bara en dag innan WSJ:s rapport släpptes meddelade TikTok att de arbetar på nya sätt att stoppa dessa farliga kaninhål från att bildas. Denna förändring inträffade också bara några dagar efter att WSJ säger att de kontaktade TikTok för ett uttalande om dess kommande berättelse, så det är möjligt att TikTok förebyggande rullade ut uppdateringen innan rapporten publicerades.
I sitt inlägg erkänner TikTok att det inte alltid är hälsosamt att se vissa typer av innehåll om och om igen, inklusive videor relaterade till extrem diet och fitness. Det arbetar nu på ett sätt att identifiera om dess rekommendationssystem oavsiktligt visar upp videor som kanske inte bryter mot TikToks policyer, men som kan vara skadliga om de konsumeras överdrivet. Plattformen säger också att den testar ett verktyg som låter användare stoppa videor som innehåller vissa ord eller hashtags från att visas på deras For You-sida.
“Även om det här experimentet inte återspeglar den erfarenhet de flesta har på TikTok, är till och med en person som har den upplevelsen en för mycket”, sa TikToks talesperson, Jamie Favazza, i ett uttalande till The Verge. “Vi tillåter utbildnings- eller återhämtningsinriktat innehåll eftersom vi förstår att det kan hjälpa människor att se att det finns hopp, men innehåll som främjar, normaliserar eller förhärligar oordnat ätande är förbjudet.” Talespersonen påpekade också att TikTok ger tillgång till National Eating Disorder Association Hotline i appen.
Om den här situationen verkar bekant för dig beror det på att Instagram redan har varit med om den (och håller fortfarande på med det). Efter att whistleblower Francis Haugen läckt Facebook Papers, en samling avslöjande interna Facebook-dokument, arbetade Instagram snabbt med att lappa hålen i sitt sjunkande skepp.
Papperna visar att Facebook gjorde sin egen research. på Instagrams inverkan på tonåringar, och fann att appen kunde orsaka förödelse för tonåringars mentala hälsa och även göra unga flickors kroppsbild sämre. Ungefär en månad senare tillkännagav Instagram sina planer på att introducera en funktion som kommer att “nuffa” tonåringar från att se potentiellt skadligt innehåll. Den lanserade också en “ta en paus”-funktion som uppmanar användare att stänga appen om de har tillbringat en viss tid på plattformen, allt från 10, 20 eller 30 minuter.
Relaterat