
Billede: Apple
Apple har udarbejdet en FAQ [PDF] som reaktion på kritik på det efter at have annonceret planer om at få enheder til at scanne materiale efter misbrug af børn i billeder uploadet til iCloud.
Detekteringssystemet til materiale til seksuelt misbrug af børn (CSAM) vil have enheder, der kører iOS 15, iPadOS 15, watchOS 8 og macOS Monterey, der matcher billeder på enheden i forhold til en liste over kendte CSAM -billedhashes leveret af USA Nationalt center for savnede og udnyttede børn (NCMEC) og andre børnesikkerhedsorganisationer, før et billede gemmes i iCloud.
Hvis der foretages en hash -match, uploades metadata, som Apple kalder “sikkerhedskuponer” sammen med billedet, og når en unavngiven tærskel er nået, vil Apple manuelt inspicere metadataene, og hvis det betragter det som CSAM, vil kontoen blive deaktiveret og en rapport sendt til NCMEC.
Meget af kritikken har kredset om tanken om, at selvom Apple var velmenende og i øjeblikket begrænset, kunne systemet udvides af Apple alene eller efter en domstolsordre kunne det jage på andre former for materiale.
Apple sagde, at dets processer var designet til at forhindre denne forekomst i at ske.
“CSAM -detektion til iCloud -fotos er bygget, så systemet kun fungerer med CSAM -billedhasher, der leveres af NCMEC og andre børnesikkerhedsorganisationer,” sagde Apple.
“Der er ingen automatiseret rapportering til retshåndhævelse, og Apple foretager menneskelig gennemgang, før der foretages en rapport til NCMEC. Som et resultat er systemet kun designet til at rapportere fotos, der er kendt CSAM i iCloud Photos. < /p>
“I de fleste lande, herunder USA, er det simpelthen en kriminalitet at besidde disse billeder, og Apple er forpligtet til at rapportere alle tilfælde, vi får kendskab til, til de relevante myndigheder.”
Med henblik på at blive tvunget til at tilføje andre hash til sit datasæt henviste Apple til sine tidligere afslag for at hjælpe amerikansk retshåndhævelse.
“Apple vil afvise sådanne krav,” hed det. “Vi har stået over for krav om at opbygge og implementere regeringsmandaterede ændringer, der før forringer brugernes privatliv før, og har fast afvist disse krav. Vi vil fortsat nægte dem i fremtiden.
“Lad os være klare, denne teknologi er begrænset til at opdage CSAM, der er gemt i iCloud, og vi vil ikke imødekomme nogen regerings anmodning om at udvide den. Endvidere foretager Apple en menneskelig gennemgang, inden der foretages en rapport til NCMEC. I et tilfælde, hvor systemet markerer fotos der ikke matcher kendte CSAM -billeder, ville kontoen ikke blive deaktiveret, og der ville ikke blive indgivet nogen rapport til NCMEC. ”
Apple hævdede, at dets system ville forhindre, at ikke-CSAM-billeder blev injiceret og markeret, da virksomheden ikke tilføjer det sæt hash, der bruges til matchning, og mennesker er involveret i verificeringsprocessen.
“Det samme sæt hash er gemt i operativsystemet for hver iPhone og iPad -bruger, så målrettede angreb mod kun bestemte personer er ikke mulige under vores design,” sagde Apple.
“Som følge heraf vil systemfejl eller angreb ikke resultere i, at uskyldige mennesker bliver rapporteret til NCMEC.”
IPhone -producenten gentog sine påstande om, at løsningen havde privatlivets fordele i forhold til at kunne scanne billeder, der blev uploadet til den.
“Eksisterende teknikker som implementeret af andre virksomheder scanner alle brugerbilleder gemt i skyen,” hedder det.
“Dette skaber fortrolige risici for alle brugere. CSAM -registrering i iCloud Photos giver betydelige fortrolige fordele i forhold til disse teknikker ved at forhindre Apple i at lære om fotos, medmindre de begge matcher kendte CSAM -billeder og er inkluderet i et iCloud Photos konto, der indeholder en samling af kendt CSAM. ”
Apple sagde også, at funktionen ikke ville køre, hvis brugere har deaktiveret iCloud -fotos og ikke fungerer på “privat iPhone -fotobibliotek på enheden”.
Ved scanning af billeder i iMessage udvidede Apple kravene til forældre, der skal advares, når en familiegruppe er oprettet, og forældrene tilmelder sig.
“For børnekonti på 12 år og yngre vil hver forekomst af et seksuelt eksplicit billede, der sendes eller modtages, advare barnet om, at hvis det fortsætter med at se eller sende billedet, får deres forældre en underretning. Kun hvis barnet fortsætter med at sende eller visning af et billede efter denne advarsel, vil meddelelsen blive sendt, “stod der.
“For børnekonti i alderen 13-17 år advares barnet stadig og bliver spurgt, om det ønsker at se eller dele et seksuelt eksplicit billede, men forældre underrettes ikke.”
Apple sagde, at det kiggede på at tilføje “ekstra support til Siri og Search for at give ofre – og folk, der kender ofre – mere vejledning om, hvordan man søger hjælp”.
Selvom CSAM -systemet i øjeblikket er begrænset til USA, kan Cupertino snart blive udsat for pres fra Canberra for at bringe det til Australien.
Mandag afslørede regeringen et sæt regler for onlinesikkerhed, der dækker sociale medier, meddelelsesplatforme og enhver relevant elektronisk service af enhver art.
Udbyderen forventes at minimere tilgængeligheden af cybermobning-materiale rettet mod et australsk barn, cybermisbrugsmateriale rettet mod en australsk voksen, et ikke-konsensuelt intimt billede af en person, klasse 1-materiale, materiale, der fremmer afskyelig voldelig adfærd, materiale, der tilskynder til afskyelig voldelig adfærd, materiale, der instruerer i afskyelig voldelig adfærd, og materiale, der skildrer afskyelig voldelig adfærd.
Forventningerne kan også prale af yderligere forventninger, f.eks. at tjenesteleverandøren vil tage rimelige skridt til proaktivt at minimere, i hvilket omfang materiale eller aktivitet på tjenesten er eller kan være ulovlig eller skadelig.
Australiens eSafety -kommissær vil have beføjelse til at pålægge teknologiske virksomheder at rapportere om, hvordan de reagerer på disse skader og udstede bøder på op til AU $ 555.000 for virksomheder og AU $ 111.000 for enkeltpersoner, hvis de ikke reagerer.
Relateret dækning
Apples scanning af misbrug af børnemisbrug i iOS 15 trækker i brand Hvorfor ser det ud til, at Apple træffer så mange dårlige designvalg? Apple har et problem med, at ProtonVPN ønsker at udfordre regeringer. FBI kritiserer Apple for ikke at hjælpe crack Pensacola shooters iPhonesTrump opfordrer Apple til at låse op for påstået shooters telefon til FBI
Relaterede emner:
Apple Security TV Data Management CXO Data Centers