
Bild: Apple
Apple har tagit fram en FAQ [PDF] som svar på kritik som riktats mot det efter att ha meddelat planer på att låta enheter söka efter barnmisshandel i bilder som laddas upp till iCloud.
Detekteringssystemet för material för barn med sexuella övergrepp (CSAM) kommer att ha enheter som kör iOS 15, iPadOS 15, watchOS 8 och macOS Monterey -matchande bilder på enheten mot en lista över kända CSAM -bildhashar från USA National Center for Missing and Exploited Children (NCMEC) och andra barnsäkerhetsorganisationer innan en bild lagras i iCloud.
Om en hash -matchning görs kommer metadata som Apple kallar “säkerhetsbevis” att laddas upp tillsammans med bilden, och när ett namnlöst tröskelvärde har uppnåtts kommer Apple att manuellt inspektera metadata och om det betraktar det som CSAM kommer kontot att inaktiverad och en rapport skickad till NCMEC.
Mycket av kritiken har kretsat kring tanken att även om Apple var välmenande och för närvarande begränsat, kan systemet utökas av Apple ensamt, eller efter ett domstolsbeslut kan det jaga andra typer av material.
Apple sa att dess processer var utformade för att förhindra att det inträffade.
“CSAM -upptäckt för iCloud -foton är byggt så att systemet bara fungerar med CSAM -bildhashar från NCMEC och andra barnsäkerhetsorganisationer”, säger Apple.
“Det finns ingen automatisk rapportering till brottsbekämpning, och Apple gör en mänsklig granskning innan en rapport görs till NCMEC. Som ett resultat är systemet endast utformat för att rapportera foton som är kända CSAM i iCloud Photos. < /p>
“I de flesta länder, inklusive USA, är det bara ett brott att inneha dessa bilder och Apple är skyldigt att rapportera alla fall vi får veta till lämpliga myndigheter.”
Med tanke på möjligheten att bli tvungen att lägga till andra hash till sin datamängd hänvisade Apple till sina tidigare avslag för att hjälpa amerikansk brottsbekämpning.
“Apple kommer att vägra sådana krav”, stod det. “Vi har ställts inför krav på att bygga och distribuera regeringens mandatförändringar som försämrar användarnas integritet tidigare och har ständigt vägrat dessa krav. Vi kommer att fortsätta att vägra dem i framtiden.
“Låt oss vara tydliga, denna teknik är begränsad till att upptäcka CSAM lagrad i iCloud och vi kommer inte att efterkomma någon regerings begäran om att utöka den. Dessutom gör Apple en mänsklig granskning innan den rapporterar till NCMEC. I ett fall där systemet flaggar foton som inte matchar kända CSAM -bilder, skulle kontot inte inaktiveras och ingen rapport skulle lämnas till NCMEC. ”
Apple hävdade att dess system skulle förhindra att icke-CSAM-bilder injiceras och flaggas eftersom företaget inte lägger till uppsättningen hash som används för matchning och människor är involverade i verifieringsprocessen.
“Samma uppsättning hascher lagras i operativsystemet för alla iPhone- och iPad -användare, så riktade attacker mot endast specifika individer är inte möjliga enligt vår design”, säger Apple.
“Som ett resultat kommer systemfel eller attacker inte att oskyldiga rapporteras till NCMEC.”
IPhone -tillverkaren upprepade sina påståenden om att lösningen hade sekretessfördelar jämfört med att kunna skanna bilder som laddats upp till den.
“Befintliga tekniker som implementerats av andra företag skannar alla användarfoton som lagras i molnet”, står det.
“Detta skapar integritetsrisk för alla användare. CSAM -upptäckt i iCloud Photos ger betydande sekretessfördelar jämfört med dessa tekniker genom att hindra Apple från att lära sig om foton om de inte matchar kända CSAM -bilder och ingår i iCloud -foton konto som innehåller en samling kända CSAM. ”
Apple sa också att funktionen inte skulle köras om användare har iCloud -foton inaktiverade och inte fungerar på “privat iPhone -fotobibliotek på enheten”.
När det gäller skanning av bilder i iMessage utökade Apple kraven på att föräldrar ska varnas när en familjegrupp har skapats och föräldrar väljer att delta.
“För barnkonton som är 12 år och yngre kommer varje instans av en sexuellt explicit bild som skickas eller tas emot att varna barnet om att om de fortsätter att se eller skicka bilden, kommer deras föräldrar att skickas ett meddelande. Endast om barnet fortsätter med att skicka eller om du ser en bild efter den här varningen kommer meddelandet att skickas, “stod det.
“För barnkonton i åldern 13-17 år varnas barnet fortfarande och frågas om det vill se eller dela en sexuellt explicit bild, men föräldrar meddelas inte.”
Apple sa att det tittade på att lägga till “ytterligare stöd till Siri och Search för att ge offer – och personer som känner offer – mer vägledning om hur man kan söka hjälp”.
Även om CSAM -systemet för närvarande är begränsat till USA, kan Cupertino snart utsättas för tryck från Canberra för att ta det till Australien.
På måndagen presenterade regeringen en uppsättning regler för onlinesäkerhet som täcker sociala medier, meddelandeplattformar och alla relevanta elektroniska tjänster av något slag.
Leverantören förväntas minimera tillgängligheten av nätmobbning som riktar sig till ett australiensiskt barn, material för cybermissbruk riktat mot en australiensisk vuxen, en icke-konsensuell intim bild av en person, klass 1-material, material som främjar avskyvärt våldsbeteende, material som uppmuntrar avskyvärt våldsbeteende, material som instruerar i avskyvärt våldsbeteende och material som skildrar avskyvärt våldsbeteende.
Förväntningarna skryter också med ytterligare förväntningar, till exempel att tjänsteleverantören vidtar rimliga åtgärder för att proaktivt minimera i vilken utsträckning material eller aktivitet på tjänsten är eller kan vara olaglig eller skadlig.
Australiens eSafety Commissioner har befogenhet att beordra teknikföretag att rapportera om hur de reagerar på dessa skador och utfärda böter på upp till 555 000 AU $ för företag och 111 000 AU $ för enskilda om de inte svarar.
Relaterad täckning
Apples skanning av missbruk av barnmissbruk i iOS 15 drar eld Varför verkar det som att Apple gör så många dåliga designval? Apple har problem med att ProtonVPN vill utmana regeringar FBI kritiserar Apple för att inte hjälpa crack Pensacola shooters iPhonesTrump uppmanar Apple att låsa upp den påstådda shooterns telefon för FBI
Relaterade ämnen:
Apple Security TV Data Management CXO Data Centers