Forskere ved AlgorithmWatch sier at de ble tvunget til å forlate sitt forskningsprosjekt som overvåker Instagram -algoritmen etter juridiske trusler fra Facebook. Det Berlin-baserte prosjektet ble offentliggjort med konflikten i et innlegg publisert fredag morgen, med henvisning til plattformens nylige forbud mot NYU Ad Observatory.
“Det er sannsynligvis flere tilfeller av mobbing som vi ikke vet om”, heter det i innlegget. “Vi håper at ved å komme frem vil flere organisasjoner fortelle om sine erfaringer.”
“Selskapet kan ikke stole på”
AlgorithmWatch ble lansert i mars 2020, og ga en nettleser-plug-in som lar brukerne samle inn data fra Instagram-feeds, noe som gir innsikt i hvordan plattformen prioriterer bilder og videoer. Prosjektet publiserte funn regelmessig, og viste at algoritmen oppmuntret til bilder som viste bar hud og at bilder som viser ansikter er rangert høyere enn skjermbilder av tekst. Facebook bestred metodikken, men iverksatte ellers ikke tiltak mot AlgorithmWatch for prosjektets første år.
I mai sa forskere at Facebook ba om å få møte prosjektlederne og anklaget dem for brudd. plattformens vilkår for bruk. En annen innvending var at prosjektet krenket GDPR, siden det samlet inn data fra brukere som ikke hadde samtykket til å delta.
“Vi samlet bare data knyttet til innhold som Facebook viste til de frivillige som installerte tillegget,” sier forskerne til sitt forsvar. “Med andre ord, brukerne av plug-in-en hadde bare tilgang til sin egen feed og delte den med oss for forskningsformål.”
Likevel valgte forskerne til slutt å stenge prosjektet, og tror de ville bli utsatt for søksmål fra selskapet hvis det fortsatte.
Den sosiale karakteren til Facebook -plattformene gjør det vanskelig å isolere en enkelt bruker: Selv når en bruker melder seg på, er feedet nødvendigvis laget av andres innhold, som sannsynligvis ikke har samtykket til å delta i forskningen. Facebook har vært spesielt sensitiv om forskningsprosjekter siden Cambridge Analytica -skandalen, der akademiske forskningsdata til slutt ble brukt til kommersiell og politisk manipulasjon.
Det bredere mønsteret er likevel bekymringsfullt. Algoritmene som administrerer nyhetsstrømmer på Facebook og Instagram er ekstremt kraftige, men dårlig forstått, og Facebooks retningslinjer gjør det vanskelig å studere dem objektivt. NYU Ad Observatory, som sporet politisk reklame på plattformen, så forskerne forbudt tidligere denne måneden blant anklager om dataskraping. I november fremsatte selskapet lignende juridiske trusler mot en nettleser som heter Friendly, som lar brukerne omorganisere feeds kronologisk. CrowdTangle, et annet populært verktøy for Facebook -forskning, ble kjøpt opp av selskapet i 2016.
Facebook svarte ikke umiddelbart på en forespørsel om kommentar.
Facebook har noen mekanismer for forskere for å samle inn data direkte fra selskapet, inkludert Ad Library og dets samfunnsvitenskapelige partnerskap. Men AlgorithmWatch sier at opposisjonen til forskningen deres gjør dataene iboende upålitelige.
“Forskere kan ikke stole på data fra Facebook fordi selskapet ikke kan stole på,” sier forskere. “Det er ingen grunn til å tro at Facebook ville gi brukbare data, hvis forskere skulle erstatte sine uavhengige innsamlede data med selskapets.”