L'immersione profonda di WSJ nelle tane di coniglio del disturbo alimentare su TikTok spiega un improvviso cambiamento di politica

0
208

Un preoccupante rapporto del Wall Street Journal scava nelle esperienze personali di giovani ragazze che sono state mandate nella tana del coniglio per sfide estreme di perdita di peso, tecniche di eliminazione e diete mortali attraverso TikTok, contribuendo allo sviluppo di disturbi alimentari o peggiorando quelli esistenti . Il WSJ ha fatto il proprio esperimento per vedere come l'algoritmo di TikTok può potenzialmente promuovere questo tipo di contenuto dannoso: i suoi risultati potrebbero spiegare l'improvvisa decisione di TikTok di alterare il modo in cui funziona il suo sistema di raccomandazione video.

Come dettagliato nel rapporto, il WSJ ha creato oltre 100 account “che hanno navigato nell'app con poco intervento umano”, 12 dei quali erano bot registrati per ragazzi di 13 anni che hanno trascorso del tempo su video riguardanti la perdita di peso, l'alcol e il gioco d'azzardo. Un grafico incluso nel rapporto mostra che non appena uno dei bot ha improvvisamente smesso di guardare video relativi al gioco d'azzardo e ha iniziato a dedicare tempo a video sulla perdita di peso, l'algoritmo di TikTok si è adattato di conseguenza; ha rapidamente aumentato il numero di video di perdita di peso che il bot ha visto per spiegare questo cambiamento nel comportamento.

“Anche se questo esperimento non riflette l'esperienza che la maggior parte delle persone ha su TikTok, anche una persona che ha quell'esperienza è una di troppo ”

Alla fine del suo esperimento, il WSJ ha scoperto che dei 255.000 video che i robot hanno guardato in totale, 32.700 di questi contenevano una descrizione o metadati che corrispondevano a un elenco di centinaia di parole chiave relative alla perdita di peso. 11.615 video avevano descrizioni testuali che corrispondevano a parole chiave rilevanti per i disturbi alimentari, mentre 4.402 avevano una combinazione di parole chiave che indicavano la normalizzazione dei disturbi alimentari.

Secondo quanto riferito, alcuni di questi video utilizzavano ortografie diverse per le parole chiave relative ai disturbi alimentari per evitare di essere contrassegnati da TikTok. Dopo che il WSJ ha avvisato la piattaforma di un campione di 2.960 video relativi ai disturbi alimentari, 1.778 sono stati rimossi: il WSJ afferma che non è chiaro se sia stato rimosso da TikTok o dai creatori stessi.

Solo un giorno prima della pubblicazione del rapporto del WSJ, TikTok ha annunciato che sta lavorando a nuovi modi per fermare la formazione di queste pericolose tane di coniglio. Questo cambiamento si è verificato anche pochi giorni dopo che il WSJ ha affermato di aver contattato TikTok per una dichiarazione sulla sua storia imminente, quindi è possibile che TikTok abbia lanciato preventivamente l'aggiornamento prima che il rapporto fosse pubblicato.

Nel suo post, TikTok riconosce che non è sempre salutare visualizzare determinati tipi di contenuti più e più volte, inclusi video relativi a diete estreme e fitness. Ora sta lavorando a un modo per riconoscere se il suo sistema di raccomandazione sta offrendo involontariamente video che potrebbero non violare le politiche di TikTok, ma potrebbero essere dannosi se consumati in modo eccessivo. La piattaforma afferma inoltre che sta testando uno strumento che consentirà agli utenti di impedire la visualizzazione dei video contenenti determinate parole o hashtag nella loro pagina For You.

“Anche se questo esperimento non riflette l'esperienza che la maggior parte delle persone ha su TikTok, anche una persona che ha quell'esperienza è una di troppo”, ha affermato il portavoce di TikTok, Jamie Favazza, in una dichiarazione a The Verge. “Permettiamo contenuti educativi o orientati al recupero perché capiamo che possono aiutare le persone a vedere che c'è speranza, ma i contenuti che promuovono, normalizzano o glorificano un'alimentazione disordinata, sono proibiti”. Il portavoce ha anche sottolineato che TikTok fornisce l'accesso alla Hotline della National Eating Disorder Association all'interno dell'app.

Se questa situazione ti sembra familiare, è perché Instagram ci è già passata (e se ne occupa ancora). Dopo che l'informatore Francis Haugen ha fatto trapelare i Facebook Papers, una raccolta di documenti interni rivelatori di Facebook, Instagram ha lavorato rapidamente per riparare i buchi nella sua nave che affonda.

I documenti mostrano che Facebook ha svolto le proprie ricerche sull'impatto di Instagram sugli adolescenti e ha scoperto che l'app potrebbe devastare la salute mentale degli adolescenti e anche peggiorare l'immagine corporea delle ragazze. Circa un mese dopo, Instagram ha annunciato i suoi piani per introdurre una funzione che “spingerà” gli adolescenti lontano dalla visualizzazione di contenuti potenzialmente dannosi. Ha anche implementato una funzione “fai una pausa” che richiede agli utenti di chiudere l'app se hanno trascorso un determinato periodo di tempo sulla piattaforma, compreso tra 10, 20 o 30 minuti.

Correlati

TikTok rivela alcuni dei segreti e dei punti ciechi del suo algoritmo di raccomandazione