
Bilde: Apple
Apple har laget en FAQ [PDF] som svar på kritikk på det etter å ha kunngjort planer om å få enheter til å søke etter barnemishandling i bilder lastet opp til iCloud.
Deteksjonssystemet for seksuelt misbruk av barn (CSAM) vil ha enheter som kjører iOS 15, iPadOS 15, watchOS 8 og macOS Monterey -bilder på enheten mot en liste over kjente CSAM -bildeaviser levert av USA Nasjonalt senter for savnede og utnyttede barn (NCMEC) og andre barnesikkerhetsorganisasjoner før et bilde lagres i iCloud.
Hvis det gjøres en hashing -kamp, vil metadata som Apple kaller “sikkerhetskuponger” lastes opp sammen med bildet, og når en unavngitt terskel er nådd, vil Apple inspisere metadataene manuelt, og hvis det ser på det som CSAM, vil kontoen bli deaktivert og en rapport sendt til NCMEC.
Mye av kritikken har dreid seg om ideen om at selv om Apple var velmenende og for tiden begrenset, kan systemet utvides av Apple alene, eller etter en rettskjennelse, kan det jakte på andre typer materiale.
Apple sa at prosessene var designet for å forhindre at hendelsen skjer.
“CSAM -deteksjon for iCloud -bilder er bygget slik at systemet bare fungerer med CSAM -bildeaviser levert av NCMEC og andre barnesikkerhetsorganisasjoner,” sa Apple.
“Det er ingen automatisk rapportering til rettshåndhevelse, og Apple foretar menneskelig gjennomgang før den rapporterer til NCMEC. Som et resultat er systemet bare designet for å rapportere bilder som er kjent CSAM i iCloud Photos. < /p>
“I de fleste land, inkludert USA, er det bare en forbrytelse å bare ha disse bildene, og Apple er forpliktet til å rapportere alle tilfeller vi får vite til de aktuelle myndighetene.”
Med tanke på muligheten til å bli tvunget til å legge til andre hash i datasettet sitt, henviste Apple til tidligere avslag for å hjelpe amerikansk rettshåndhevelse.
“Apple vil nekte slike krav”, heter det. “Vi har stått overfor krav om å bygge og distribuere regjeringsmandaterte endringer som forringer personvernet til brukerne tidligere, og har nektet å stille disse kravene. Vi vil fortsette å nekte dem i fremtiden.
“La oss være klare, denne teknologien er begrenset til å oppdage CSAM lagret i iCloud, og vi vil ikke imøtekomme noen myndighets forespørsel om å utvide den. Videre foretar Apple menneskelig gjennomgang før den rapporterer til NCMEC. I et tilfelle der systemet flagger bilder som ikke samsvarer med kjente CSAM -bilder, ville kontoen ikke blitt deaktivert og ingen rapport ville bli arkivert til NCMEC. ”
Apple hevdet at systemet ville forhindre at ikke-CSAM-bilder injiseres og flagges siden selskapet ikke legger til hasjene som brukes for matching, og mennesker er involvert i verifiseringsprosessen.
“Det samme settet med hash er lagret i operativsystemet til hver iPhone og iPad -bruker, så målrettede angrep mot bare bestemte individer er ikke mulig under vårt design,” sa Apple.
“Som et resultat vil systemfeil eller angrep ikke resultere i at uskyldige mennesker blir rapportert til NCMEC.”
IPhone -produsenten gjentok påstandene om at løsningen hadde personvernfordeler i forhold til å kunne skanne bilder lastet opp til den.
“Eksisterende teknikker som implementert av andre selskaper skanner alle brukerbilder som er lagret i skyen,” heter det.
“Dette skaper personvernrisiko for alle brukere. CSAM -gjenkjenning i iCloud Photos gir betydelige personvernfordeler i forhold til disse teknikkene ved å forhindre Apple i å lære om bilder, med mindre de både samsvarer med kjente CSAM -bilder og er inkludert i iCloud -bilder konto som inkluderer en samling kjente CSAM. ”
Apple sa også at funksjonen ikke ville kjøres hvis brukere har deaktivert iCloud -bilder og ikke fungerer på “privat iPhone -fotobibliotek på enheten”.
Ved skanning av bilder i iMessage utvidet Apple kravene om at foreldre skal varsles når en familiegruppe er opprettet og foreldre melder seg på.
“For barnekontoer som er 12 år og yngre, vil hver forekomst av et seksuelt eksplisitt bilde sendt eller mottatt advare barnet om at hvis de fortsetter å se eller sende bildet, vil foreldrene bli sendt et varsel. Bare hvis barnet fortsetter med å sende eller Hvis du ser et bilde etter denne advarselen, blir varselet sendt, “heter det.
“For barnekontoer i alderen 13-17 år blir barnet fortsatt advart og spurt om de ønsker å se eller dele et seksuelt eksplisitt bilde, men foreldre blir ikke varslet.”
Apple sa at de så på å legge til “ekstra støtte til Siri og Search for å gi ofre – og folk som kjenner ofre – mer veiledning om hvordan de kan søke hjelp”.
Selv om CSAM -systemet for øyeblikket er begrenset til USA, kan Cupertino snart bli utsatt for press fra Canberra for å bringe det til Australia.
Mandag avduket regjeringen et sett med regler for online sikkerhet som skal dekke sosiale medier, meldingsplattformer og alle relevante elektroniske tjenester av noe slag.
Leverandøren forventes å minimere tilgjengeligheten av nettmobbing som er rettet mot et australsk barn, materiale for nettmisbruk rettet mot en australsk voksen, et ikke-konsensuelt intimt bilde av en person, klasse 1-materiale, materiale som fremmer avskyelig voldelig oppførsel, materiale som oppfordrer til avskyelig voldelig oppførsel, materiale som instruerer i avskyelig voldelig oppførsel, og materiale som skildrer avskyelig voldelig oppførsel.
Forventningene skryter også av ytterligere forventninger, for eksempel at tjenesteleverandøren vil ta rimelige skritt for å proaktivt minimere i hvilken grad materiale eller aktivitet på tjenesten er eller kan være ulovlig eller skadelig.
Australias eSafety Commissioner vil ha makt til å beordre teknologiselskaper til å rapportere om hvordan de reagerer på disse skadene og gi bøter på opptil $ 555 000 AU for selskaper og 111 000 AU for enkeltpersoner hvis de ikke svarer.
Relatert dekning
Apples skanning av barnemishandling fra barn i iOS 15 trekker fyr Hvorfor virker det som om Apple gjør så mange dårlige designvalg? Apple har et problem med at ProtonVPN ønsker å utfordre myndigheter FBI kritiserer Apple for ikke å hjelpe crack Pensacola shooters iPhonesTrump oppfordrer Apple til å låse opp påståtte skytterens telefon for FBI
Relaterte emner:
Apple Security TV Data Management CXO Data Centers