Apple sier at iCloud -skanningen vil stole på flere barnesikkerhetsgrupper for å håndtere frykt for personvern

0
167

Apple har fylt ut flere detaljer om sine kommende planer om å skanne iCloud -bilder etter seksuelt misbruk av barn (CSAM) via brukernes iPhone og iPad. Selskapet ga ut et nytt papir som går nærmere inn på de sikkerhetstiltakene det håper vil øke brukernes tillit til initiativet. Det inkluderer en regel om å bare flagge bilder som finnes i flere barnesikkerhetsdatabaser med forskjellige offentlige tilknytninger-teoretisk sett stoppe et land fra å legge til ikke-CSAM-innhold i systemet.

Apples kommende iOS og iPadOS utgivelser vil automatisk matche USA-baserte iCloud Photos-kontoer mot kjente CSAM fra en liste over bildeaviser utarbeidet av barnesikkerhetsgrupper. Mens mange selskaper skanner skylagringstjenester eksternt, har Apples enhetsbaserte strategi trukket skarp kritikk fra noen kryptografi- og personverneksperter.

Avisen, kalt “Security Threat Model Review of Apples barnesikkerhetsfunksjoner”, håper å dempe personvern- og sikkerhetsproblemer rundt denne utrullingen. Den bygger på et Wall Street Journal -intervju med Apple -leder Craig Federighi, som skisserte noe av informasjonen i morges.

I dokumentet sier Apple at det ikke vil stole på en enkelt offentlig tilknyttet database-som for USAs nasjonale senter for savnede og utnyttede barn, eller NCMEC-for å identifisere CSAM. I stedet vil det bare matche bilder fra minst to grupper med forskjellige nasjonale tilknytninger. Målet er at ingen enkelt regjering kan ha makt til å sette inn ikke-relatert innhold i hemmelighet for sensurformål, siden det ikke ville matche hashes i noen annen database.

 A venn -diagram med en sirkel merket Apple

Apple har referert til potensiell bruk av flere datasikkerhetsdatabaser, men til i dag hadde det ikke forklart overlappingssystemet. I en samtale med journalister sa Apple at det bare navngir NCMEC fordi det ennå ikke har fullført avtaler med andre grupper.

Papiret bekrefter en detalj Federighi nevnte: opprinnelig vil Apple bare flagge en iCloud -konto hvis den identifiserer 30 bilder som CSAM. Denne terskelen ble valgt for å gi en “drastisk sikkerhetsmargin” for å unngå falske positive, sier papiret – og når det evaluerer systemets ytelse i den virkelige verden, “kan vi endre terskelen.”

Den gir også mer informasjon om et revisjonssystem som Federighi nevnte. Apples liste over kjente CSAM -hash vil bli bakt inn i iOS og iPadOS over hele verden, selv om skanningssystemet bare vil kjøre i USA for nå. Apple vil gi en fullstendig liste over hashes som revisorer kan sjekke mot barnesikkerhetsdatabaser, en annen metode for å sikre at den ikke i hemmelighet samsvarer med flere bilder. Videre står det at det vil “nekte alle forespørsler” til moderatorer om å rapportere “alt annet enn CSAM -materiale” for kontoer som blir flagget – med henvisning til potensialet for bruk av dette systemet til andre former for overvåking.

Federighi erkjente at Apple hadde innført” forvirring “med kunngjøringen sin forrige uke. Men Apple har stått ved selve oppdateringen – den sier til journalister at selv om den fortsatt er ferdig og gjentar detaljer, har den ikke endret lanseringsplanene som svar på den siste ukens kritikk.