WhatsApp kommer inte att anta Apples nya barnsäkerhetsåtgärder, avsedda att stoppa spridningen av bilder från barnmisshandel, enligt WhatsApps chef Will Cathcart. I en Twitter -tråd förklarar han sin övertygelse om att Apple “har byggt programvara som kan skanna alla privata foton på din telefon” och sa att Apple har tagit fel väg för att försöka förbättra sitt svar på material för sexuella övergrepp mot barn, eller CSAM .
Apples plan, som den tillkännagav på torsdagen, innebär att ta bilder av bilder som laddats upp till iCloud och jämföra dem med en databas som innehåller hascher av kända CSAM -bilder. Enligt Apple kan detta hålla användardata krypterade och köra analysen på enheten samtidigt som den tillåter att rapportera användare till myndigheterna om de visar sig dela bilder på barnmisshandel. En annan grepp i Apples barnsäkerhetsstrategi innebär att föräldrar eventuellt varnas om deras barn under 13 år skickar eller tittar på foton som innehåller sexuellt explicit innehåll. Ett internt memo på Apple erkände att människor skulle vara ”oroliga för systemets konsekvenser”.
Jag läste informationen som Apple lade ut igår och jag är orolig. Jag tror att detta är fel inställning och ett bakslag för människors integritet över hela världen.
Folk har frågat om vi kommer att anta detta system för WhatsApp. Svaret är nej.
– Will Cathcart (@wcathcart) 6 augusti 2021
Cathcart kallar Apples tillvägagångssätt “mycket oroande” och säger att det skulle tillåta regeringar med olika uppfattningar om vilken typ av bilder som är och inte är acceptabla att begära att Apple lägger till bilder som inte är CSAM i databaserna man jämför bilder mot. Cathcart säger att WhatsApps system för att bekämpa exploatering av barn, som delvis använder användarrapporter, bevarar kryptering som Apples och har lett till att företaget rapporterar över 400 000 fall till National Center for Missing and Exploited Children år 2020. (Apple arbetar också med Center for dess CSAM -detekteringsförsök.)
WhatsApps ägare, Facebook, har skäl att slå till på Apple av sekretesshänsyn. Apples förändringar av hur annonsspårning fungerar i iOS 14.5 startade en kamp mellan de två företagen, med Facebook som köpte tidningsannonser och kritiserade Apples integritetsförändringar som skadliga för småföretag. Apple slog tillbaka och sa att ändringen “helt enkelt kräver” att användarna får välja om de ska spåras.
Cathcart kallar Apples tillvägagångssätt “mycket bekymmersamt” och han är inte ensam
Det är dock inte bara WhatsApp som har kritiserat Apples nya barnsäkerhetsåtgärder. Listan över människor och organisationer som väcker bekymmer inkluderar Edward Snowden, Electronic Frontier Foundation, professorer och mer. Vi har samlat några av dessa reaktioner här för att fungera som en översikt över en del av kritiken mot Apples nya policy.
Matthew Green, docent vid Johns Hopkins University, drev tillbaka på funktionen innan den offentliggjordes. Han twittrade om Apples planer och om hur hash-systemet kan missbrukas av regeringar och skadliga aktörer.
Dessa verktyg gör att Apple kan skanna dina iPhone -foton efter foton som matchar en specifik perceptuell hash och rapportera dem till Apples servrar om för många dyker upp.
– Matthew Green (@matthew_d_green) 5 augusti 2021
< p id = "AKpR2F">EFF släppte ett uttalande som sprängde Apples plan och kallade det mer eller mindre en “noggrant dokumenterad, noggrant genomtänkt och snävt omfattande bakdörr.” EFF: s pressmeddelande går in på detaljer om hur man tror att Apples barnsäkerhetsåtgärder kan missbrukas av regeringar och hur de minskar användarnas integritet.
Apples filtrering av iMessage och iCloud är inte en hal sluttning till bakdörrar som undertrycker tal och gör vår kommunikation mindre säker. Vi är redan där: det här är ett fullbyggt system som bara väntar på yttre tryck för att göra den minsta ändringen. https://t.co/f2nv062t2n
— EFF (@EFF) 5 augusti 2021
Kendra Albert, instruktör vid Harvards Cyberlaw Clinic, har en tråd om de potentiella farorna för queerbarn och Apples initiala bristande tydlighet kring åldersintervall för funktionen för föräldrameddelanden.
< p lang = "sv" dir = "ltr"> Idén att föräldrar är säkra människor för tonåringar att ha konversationer om sex eller sexting med är beundransvärt, men i många fall är det inte sant. (Och såvitt jag kan se gäller dessa saker inte bara för barn under 13 år.)
– Kendra Albert (@KendraSerra) 5 augusti 2021
EFF rapporterar att iMessage-nakenhetsmeddelanden inte kommer att gå till föräldrar om barnet är mellan 13-17 men det finns inte någonstans i Apple -dokumentationen som jag kan hitta. https://t.co/Ma1BdyqZfW
— Kendra Albert (@KendraSerra) 6 augusti 2021
Edward Snowden retweetade Financial Times -artikeln om systemet och gav sin egen karakterisering av vad Apple gör.
Apple planerar att modifiera iPhones för att ständigt söka efter smuggeli:
“Det är en helt fruktansvärd idé, eftersom den kommer att leda till distribuerad bulkövervakning av våra telefoner och bärbara datorer ”, säger Ross Anderson, professor i säkerhetsteknik. https://t.co/rS92HR3pUZ
— Edward Snowden (@Snowden) 5 augusti 2021
Politikern Brianna Wu kallade systemet “den sämsta idén i Apples historia. ”
Det här är den sämsta idén i Apples historia, och jag säger det inte lätt.
Det förstör deras trovärdighet när det gäller integritet. Det kommer att missbrukas av regeringar. Det kommer att få homosexuella barn dödade och förnekade. Detta är den värsta idén någonsin. https://t.co/M2EIn2jUK2
— Brianna Wu (@BriannaWu) 5 augusti 2021
Bara att konstatera: Apples skanning upptäcker inte foton av övergrepp mot barn. Den upptäcker en lista över kända förbjudna bilder som läggs till i en databas, som ursprungligen är bilder från barnmisshandel som hittats cirkulera någon annanstans. Vilka bilder som läggs till över tiden är godtyckliga. Det vet inte vad ett barn är.
– SoS (@SwiftOnSecurity) 5 augusti 2021
Författaren Matt Blaze twittrade också om farhågorna om att tekniken skulle kunna missbrukas genom att överdriva regeringar och försöka förhindra annat innehåll än CSAM.
Med andra ord, policyn måste inte bara vara exceptionellt robust, det gör implementeringen också.
– matt blaze (@mattblaze) 6 augusti 2021
Epic CEO Tim Sweeney kritiserade också Apple och sa att företaget “dammsuger upp allas data till iCloud som standard.” Han lovade också att dela mer tankar specifikt om Apples barnsäkerhetssystem.
Det är fruktansvärt hur Apple dammsuger upp allas data till iCloud som standard, döljer de 15+ separata alternativen för att stänga av delar av det i Inställningar under ditt namn och tvingar dig att ha ett oönskat e -postkonto. Apple tillåter ALDRIG en tredje part att skicka en sådan app.
-Tim Sweeney (@TimSweeneyEpic) 6 augusti 2021
Jag kommer att dela mycket detaljerade tankar om detta relaterade ämne senare.
– Tim Sweeney (@TimSweeneyEpic) 6 augusti 2021
Inte alla reaktioner har varit kritisk, dock. Ashton Kutcher (som har arbetat för att stoppa sexhandel med barn sedan 2011) kallar Apples arbete “ett stort steg framåt” för att eliminera CSAM.
Jag tror på integritet – även för barn vars sexuella övergrepp dokumenteras och sprids online utan samtycke. Dessa ansträngningar som meddelats av @Apple är ett stort steg framåt i kampen för att eliminera CSAM från internet. https://t.co/TQIxHlu4EX
— ashton kutcher (@aplusk) 5 augusti 2021