Apple slår bromsarna på planer på att skanna användarbilder efter innehåll från barnmisshandel

0
125

 Charlie Osborne

Av Charlie Osborne för Zero Day | 6 september 2021 – 08:25 GMT (09:25 BST) | Ämne: Säkerhet

Apple har pausat planer på att skanna enheter efter barnmisshandel och utnyttjande av material efter att verktyget väckt oro bland användare och sekretessgrupper.

De nya säkerhetsfunktionerna tillkännagavs förra månaden och var avsedda att inkluderas i iOS 15, iPadOS 15, watchOS 8 och macOS Monterey. Den första var en funktion för att övervaka meddelandeprogrammet, med maskininlärning på klientsidan implementerad för att skanna och varna när sexuellt explicita bilder skickas, vilket kräver inmatning från användaren om de vill se materialet eller inte.

“Som en extra försiktighetsåtgärd kan barnet också få veta att föräldrarna kommer att få ett meddelande om de ser det”, förklarade företaget.

Den andra omgången förändringar påverkade Siri och Search, med uppdateringar inkluderade för att ge ytterligare information för föräldrar och barn för att varna dem när de snubblade in i “osäkra” situationer, samt att “ingripa” om en sökning efter material för sexuellt övergrepp mot barn (CSAM) ) utfördes av en användare.

Det tredje var ett CSAM-skanningsverktyg, som utsågs som ett sätt att “skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem.”

Enligt iPhone- och iPad -tillverkaren skulle verktyget använda kryptografi “för att begränsa spridningen av CSAM online” samtidigt som det tillgodoser användarnas integritet. Bilder skulle inte skannas i molnet, snarare skulle matchning på enheten utföras där bilder skulle jämföras med hash som är länkade till kända CSAM-bilder.

“CSAM -upptäckt hjälper Apple att tillhandahålla värdefull information till brottsbekämpning om samlingar av CSAM i iCloud Photos”, säger företaget. “Det här programmet är ambitiöst och att skydda barn är ett viktigt ansvar. Dessa insatser kommer att utvecklas och expandera med tiden.”

I ett tekniskt dokument (.PDF) som beskriver verktyget sa Apple:

“CSAM Detection gör det möjligt för Apple att exakt identifiera och rapportera iCloud -användare som lagrar kända CSAM i sina iCloud Photos -konton. Apples servrar flaggar konton som överskrider ett tröskelantal bilder som matchar en känd databas med CSAM -bildhashar så att Apple kan tillhandahålla relevant information till National Center for Missing and Exploited Children (NCMEC). Denna process är säker och är uttryckligen utformad för att bevara användarnas integritet. “

Skannern fick emellertid kontroverser online, vilket föranledde kritik från sekretessförespråkare och kryptografexperter.

Docent vid Johns Hopkins Information Security Institute och kryptografisexperten Matthew Green sa att implementering av kryptografi för att söka efter bilder som innehåller specifika hashningar kan bli “en viktig ingrediens för att lägga till övervakning till krypterade meddelandesystem”.

Även om det är skapat med goda avsikter, kan ett sådant verktyg bli ett kraftfullt vapen i fel händer, till exempel auktoritära regeringars och diktaturers.

Electronic Frontier Foundation slog också ner på planerna och lanserade en framställning för att sätta press på Apple för att gå tillbaka. I skrivande stund har grunden över 27 000 underskrifter. Fight for the Future och OpenMedia lanserade också liknande framställningar.

Den 3 september sa Apple att lanseringen har stoppats för att ta “ytterligare tid” för att analysera verktygen och deras potentiella framtida inverkan.

“Tidigare tillkännagav vi planer för funktioner som är avsedda att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem och för att begränsa spridningen av material för sexuellt övergrepp mot barn”, säger Apple. “Baserat på feedback från kunder, påverkansgrupper, forskare och andra har vi beslutat att ta ytterligare tid under de kommande månaderna för att samla in input och göra förbättringar innan vi släpper dessa kritiskt viktiga barnsäkerhetsfunktioner.”

Green sa att det var ett positivt drag från Apples sida att ta sig tid att överväga lanseringen. EFF sa att de var “nöjda” med Apples beslut, men tillade att det inte räcker med att lyssna – teknikjätten borde “släppa sina planer på att sätta en bakdörr i sin kryptering helt.”

“De funktioner som Apple tillkännagav för en månad sedan, med avsikt att hjälpa till att skydda barn, skulle skapa en infrastruktur som är alltför lätt att omdirigera till större övervakning och censur”, säger gruppen för digitala rättigheter. “Dessa funktioner skulle skapa en enorm fara för iPhone -användares integritet och säkerhet, och erbjuder auktoritära regeringar ett nytt system för massövervakning för att spionera på medborgare.”

Tidigare och relaterad täckning

Gör dig redo för iOS 15 och iPadOS 15
Inte så nya iPhones: Hur Apple övertygar dig om att köpa gamla saker
Google hånar lustigt Apple (men vänta, var har jag sett det här tidigare?)

Har du ett tips? Hör av dig säkert via WhatsApp | Signal på +447713 025 499 eller senare på Keybase: charlie0

Relaterade ämnen:

Apple Security TV Data Management CXO Data Center Charlie Osborne

Av Charlie Osborne för Zero Day | 6 september 2021 – 08:25 GMT (09:25 BST) | Ämne: Säkerhet