Apple siger, at dens iCloud -scanning vil stole på flere børnesikkerhedsgrupper for at imødegå frygt for fortrolighed

0
188

Apple har udfyldt flere detaljer omkring sine kommende planer om at scanne iCloud -fotos efter seksuelt misbrug af børn (CSAM) via brugernes iPhones og iPads. Virksomheden offentliggjorde et nyt papir, der går nærmere ind på de sikkerhedsforanstaltninger, det håber vil øge brugernes tillid til initiativet. Det inkluderer en regel om kun at markere billeder, der findes i flere børnesikkerhedsdatabaser med forskellige offentlige tilknytninger-teoretisk set forhindre et land i at tilføje ikke-CSAM-indhold til systemet.

Apples kommende iOS og iPadOS udgivelser vil automatisk matche amerikansk-baserede iCloud Photos-konti mod kendt CSAM fra en liste over billedhashes udarbejdet af børnesikkerhedsgrupper. Mens mange virksomheder eksternt scanner cloud-lagertjenester, har Apples enhedsbaserede strategi trukket skarp kritik fra nogle kryptografi- og fortrolighedseksperter.

Papiret, kaldet “Security Threat Model Review of Apples børnesikkerhedsfunktioner”, håber at dæmpe bekymringer om fortrolighed og sikkerhed omkring denne udrulning. Det bygger på et Wall Street Journal -interview med Apple -chef Craig Federighi, der skitserede nogle af oplysningerne i morges.

I dokumentet siger Apple, at det ikke vil stole på, at en enkelt regering-tilknyttet database-som den i USA-baserede National Center for Missing and Exploited Children eller NCMEC-identificerer CSAM. I stedet vil det kun matche billeder fra mindst to grupper med forskellige nationale tilhørsforhold. Målet er, at ingen enkelt regering kan have magt til i hemmelighed at indsætte ikke-relateret indhold til censurformål, da det ikke ville matche hash i nogen anden database.

 A venn -diagram med en cirkel mærket Apple

Apple har refereret til den potentielle brug af flere børnesikkerhedsdatabaser, men indtil i dag havde det ikke forklaret overlapningssystemet. I et opkald med journalister sagde Apple, at det kun navngiver NCMEC, fordi det endnu ikke har afsluttet aftaler med andre grupper.

Papiret bekræfter en detalje, Federighi nævnte: i første omgang vil Apple kun markere en iCloud -konto, hvis den identificerer 30 billeder som CSAM. Denne tærskel blev valgt til at give en “drastisk sikkerhedsmargen” for at undgå falske positive, siger papiret – og da det evaluerer systemets ydeevne i den virkelige verden, “kan vi ændre tærsklen.”

Det giver også flere oplysninger om et revisionssystem, som Federighi nævnte. Apples liste over kendte CSAM -hash vil blive bagt ind i iOS og iPadOS verden over, selvom scanningssystemet kun vil køre i USA for nu. Apple vil levere en komplet liste over hash, som revisorer kan kontrollere i forhold til børnesikkerhedsdatabaser, en anden metode til at sikre, at det ikke hemmeligt matcher flere billeder. Desuden hedder det, at det vil “afvise alle anmodninger” til moderatorer om at rapportere “alt andet end CSAM -materialer” til konti, der bliver markeret – hvilket refererer til potentialet for at bruge dette system til andre former for overvågning.

Federighi erkendte, at Apple havde indført” forvirring “med sin meddelelse i sidste uge. Men Apple har stået ved selve opdateringen – den fortæller journalister, at selvom den stadig er ved at færdiggøre og gentage detaljer, har den ikke ændret sine lanceringsplaner som reaktion på den seneste uges kritik.