WhatsApp -leder og andre tekniske eksperter skyter tilbake på Apples barnesikkerhetsplan

0
114

WhatsApp vil ikke vedta Apples nye tiltak for barnesikkerhet, som skal stoppe spredningen av bilder fra barnemishandling, ifølge WhatsApps leder Will Cathcart. I en Twitter -tråd forklarer han sin tro på at Apple “har bygd programvare som kan skanne alle de private bildene på telefonen din”, og sa at Apple har tatt feil vei for å forbedre sitt svar på seksuelt misbruk av barn, eller CSAM. .

Apples plan, som den kunngjorde torsdag, innebærer å ta bilder av bilder lastet opp til iCloud og sammenligne dem med en database som inneholder hashes av kjente CSAM -bilder. Ifølge Apple tillater dette brukeren å holde brukerdata kryptert og kjøre analysen på enheten, mens den fortsatt kan rapportere brukere til myndighetene hvis de viser seg å dele bilder fra barnemishandling. En annen del av Apples strategi for barnesikkerhet innebærer valgfri advarsel til foreldre hvis barnet under 13 år sender eller ser på bilder som inneholder seksuelt eksplisitt innhold. Et internt notat fra Apple erkjente at folk ville være “bekymret for implikasjonene” av systemene.

Cathcart kaller Apples tilnærming “veldig bekymringsfull”, og sier at det vil tillate myndigheter med forskjellige ideer om hva slags bilder som er og ikke er akseptable å be om at Apple legger til bilder som ikke er CSAM i databasene de sammenligner bilder mot. Cathcart sier WhatsApps system for å bekjempe utnyttelse av barn, som delvis bruker brukerrapporter, bevarer kryptering som Apples og har ført til at selskapet rapporterte over 400 000 saker til National Center for Missing and Exploited Children i 2020. (Apple jobber også med Senter for sin CSAM -deteksjon.)

WhatsApps eier, Facebook, har grunner til å slå seg til Apple av hensyn til personvernet. Apples endringer i hvordan annonsesporing fungerer i iOS 14.5 startet en kamp mellom de to selskapene, med Facebook som kjøpte avisannonser og kritiserte Apples personvernendringer som skadelige for små bedrifter. Apple sparket tilbake og sa at endringen “ganske enkelt krever” at brukerne skal få velge om de skal spores.

Cathcart kaller Apples tilnærming “veldig bekymrende”, og han er ikke alene

Det er imidlertid ikke bare WhatsApp som har kritisert Apples nye tiltak for barnesikkerhet. Listen over mennesker og organisasjoner som reiser bekymringer inkluderer Edward Snowden, Electronic Frontier Foundation, professorer og mer. Vi har samlet noen av disse reaksjonene her for å fungere som en oversikt over noen av kritikkene mot Apples nye politikk.

Matthew Green, førsteamanuensis ved Johns Hopkins University, presset tilbake på funksjonen før den ble offentliggjort. Han twitret om Apples planer og om hvordan hashing-systemet kan misbrukes av myndigheter og ondsinnede aktører.

< p id = "AKpR2F">EFF ga ut en uttalelse som sprengte Apples plan, og kalte den mer eller mindre en “grundig dokumentert, nøye gjennomtenkt og smalomfattet bakdør.” EFFs pressemelding går detaljert inn på hvordan den mener Apples barnesikkerhetstiltak kan misbrukes av myndigheter og hvordan de reduserer brukernes personvern.

Kendra Albert, instruktør ved Harvards Cyberlaw Clinic, har en tråd om de potensielle farene for skeive barn og Apples første mangel på klarhet rundt aldersgrupper for funksjonen for foreldremeldinger.

Edward Snowden retweetet Financial Times -artikkelen om systemet og ga sin egen karakterisering av hva Apple gjør.

Politiker Brianna Wu kalte systemet “den verste ideen i Apple History. ”

Forfatter Matt Blaze twitret også om bekymringene for at teknologien kan misbrukes ved å overstyre regjeringer og prøve å forhindre annet innhold enn CSAM.

Epic CEO Tim Sweeney kritiserte også Apple og sa at selskapet “støvsuger alle data til iCloud som standard.” Han lovet også å dele flere tanker spesielt om Apples barnesikkerhetssystem.

Ikke alle reaksjoner har vært kritisk, men. Ashton Kutcher (som har utført advokatarbeid for å få slutt på sexhandel med barn siden 2011) kaller Apples arbeid “et stort skritt fremover” for arbeidet med å eliminere CSAM.