Apple har fyllt i fler detaljer kring sina kommande planer på att skanna iCloud -foton efter material för sexuella övergrepp mot barn (CSAM) via användares iPhone och iPad. Företaget släppte ett nytt papper som fördjupar sig i de skyddsåtgärder som det hoppas kommer att öka användarens förtroende för initiativet. Det inkluderar en regel för att bara flagga bilder som finns i flera barnsäkerhetsdatabaser med olika statliga anslutningar-teoretiskt stoppar ett land från att lägga till innehåll utan CSAM till systemet.
Apples kommande iOS och iPadOS utgåvor matchar automatiskt USA-baserade iCloud Photos-konton mot kända CSAM från en lista med bildhashar som sammanställts av barnsäkerhetsgrupper. Medan många företag skannar molntjänster på distans har Apples enhetsbaserade strategi dragit skarp kritik från vissa kryptografi- och sekretessexperter.
Tidningen, kallad “Security Threat Model Review of Apples barnsäkerhetsfunktioner”, hoppas kunna dämpa integritets- och säkerhetsproblem kring den utrullningen. Den bygger på en Wall Street Journal -intervju med Apple -chefen Craig Federighi, som redogjorde för en del av informationen i morse.
I dokumentet säger Apple att det inte kommer att förlita sig på en enda statligt ansluten databas-som den för USA-baserade National Center for Missing and Exploited Children, eller NCMEC-för att identifiera CSAM. Istället kommer det bara att matcha bilder från minst två grupper med olika nationella anknytningar. Målet är att ingen enskild regering kan ha makten att i hemlighet infoga icke-relaterat innehåll för censur, eftersom det inte skulle matcha hash i någon annan databas.
:no_upscale()/cdn.vox-cdn .com/uploads/chorus_asset/file/22781290/Screen_Shot_2021_08_13_at_3.35.42_PM.png )
Apple har hänvisat till den potentiella användningen av flera barnsäkerhetsdatabaser, men fram till idag hade det inte förklarat överlappningssystemet. I ett samtal med reportrar sa Apple att det bara heter NCMEC eftersom det ännu inte har slutfört avtal med andra grupper.
Tidningen bekräftar en detalj Federighi nämnde: initialt kommer Apple bara att flagga ett iCloud -konto om det identifierar 30 bilder som CSAM. Denna tröskel valdes för att ge en “drastisk säkerhetsmarginal” för att undvika falska positiva, säger tidningen – och när det utvärderar systemets prestanda i den verkliga världen “kan vi ändra tröskeln.”
Det ger också mer information om ett revisionssystem som Federighi nämnde. Apples lista över kända CSAM -hashar kommer att bakas in i iOS och iPadOS över hela världen, även om skanningssystemet bara körs i USA för tillfället. Apple kommer att tillhandahålla en fullständig lista med hash som revisorer kan kontrollera mot barnsäkerhetsdatabaser, en annan metod för att se till att det inte i hemlighet matchar fler bilder. Dessutom står det att det kommer att “vägra alla förfrågningar” för moderatorer att rapportera “allt annat än CSAM -material” för konton som flaggas – med hänvisning till möjligheten att använda detta system för andra typer av övervakning.
Federighi erkände att Apple hade infört” förvirring “med sitt tillkännagivande förra veckan. Men Apple har stått fast vid själva uppdateringen – den berättar för journalister att även om den fortfarande håller på att slutföras och iterera detaljer, har den inte ändrat sina lanseringsplaner som svar på den senaste veckans kritik.