I en orientering torsdag ettermiddag bekreftet Apple tidligere rapporterte planer om å distribuere ny teknologi innen iOS, macOS, watchOS og iMessage som vil oppdage potensielle bilder av overgrep mot barn, men klargjorde viktige detaljer fra det pågående prosjektet. For enheter i USA har nye versjoner av iOS og iPadOS som ruller ut i høst “nye kryptografiske applikasjoner for å begrense spredningen av CSAM [seksuelt misbruk av barn] på nettet, samtidig som de er utformet for brukernes personvern.”
Prosjektet er også detaljert i en ny “Barnesikkerhet” -side på Apples nettsted. Den mest invasive og potensielt kontroversielle implementeringen er systemet som utfører skanning på enheten før et bilde sikkerhetskopieres i iCloud. Fra beskrivelsen skjer ikke skanning før en fil sikkerhetskopieres til iCloud, og Apple mottar bare data om en kamp hvis de kryptografiske bilagene (lastet opp til iCloud sammen med bildet) for en bestemt konto oppfyller en terskel for samsvarende kjent CSAM .
Apple beskrev flere restriksjoner som er inkludert for å beskytte personvernet
I årevis har Apple brukt hash -systemer for å søke etter bilder fra barnemishandling som sendes via e -post, i tråd med lignende systemer hos Gmail og andre e -postleverandører i nettskyen. Programmet som ble annonsert i dag, vil bruke de samme skanningene på brukerbilder som er lagret i iCloud -bilder, selv om bildene aldri blir sendt til en annen bruker eller på annen måte deles.
I en PDF som ble levert sammen med orienteringen, begrunnet Apple sine trekk for bildeskanning ved å beskrive flere begrensninger som er inkludert for å beskytte personvernet:
Apple lærer ikke noe om bilder som ikke samsvarer med den kjente CSAM
databasen.
Apple kan ikke få tilgang til metadata eller visuelle derivater for matchede CSAM -bilder før
terskelen for treff er overskredet for en iCloud Photos -konto.
Risikoen for at systemet feilmelder en konto er ekstremt lav. I tillegg
Apple går manuelt gjennom alle rapporter gjort til NCMEC for å sikre rapporteringsnøyaktighet.
Brukere kan ikke få tilgang til eller se databasen med kjente CSAM -bilder.
Brukere kan ikke identifisere hvilke bilder som ble flagget som CSAM av systemet
De nye detaljene bygger på bekymringer som ble lekket tidligere denne uken, men legger også til en rekke sikkerhetstiltak som bør beskytte mot personvernrisikoen ved et slikt system. Spesielt sikrer terskelsystemet at ensomme feil ikke vil generere varsler, slik at apple kan målrette en feilprosent på ett falsk varsel per billion brukere per år. Hashingsystemet er også begrenset til materiale som er flagget av National Center for Missing and Exploited Children (NCMEC), og bilder lastet opp til iCloud -bilder. Når et varsel er generert, blir det gjennomgått av Apple og NCMEC før det varsler rettshåndhevelse, noe som gir en ekstra beskyttelse mot at systemet brukes til å oppdage innhold som ikke er CSAM.
Apple bestilte tekniske vurderinger av systemet fra tre uavhengige kryptografer (PDF -filer 1, 2 og 3), som syntes det var matematisk robust. “Etter min vurdering vil dette systemet trolig øke sannsynligheten for at folk som eier eller trafikkerer i slike bilder (skadelige brukere), blir vesentlig. dette bør bidra til å beskytte barn, ”sa professor David Forsyth, leder for informatikk ved University of Illinois, i en av vurderingene. “Nøyaktigheten til det matchende systemet, kombinert med terskelen, gjør det svært lite sannsynlig at bilder som ikke er kjente CSAM -bilder vil bli avslørt.”
Apple sa imidlertid at andre barnesikkerhetsgrupper ble sannsynligvis lagt til som hashkilder etter hvert som programmet utvides, og selskapet forpliktet seg ikke til å gjøre listen over partnere offentlig tilgjengelig fremover. Det vil sannsynligvis øke bekymringen for hvordan systemet kan bli utnyttet av den kinesiske regjeringen, som lenge har søkt større tilgang til iPhone -brukerdata i landet.
Advarsel om eksempelmeldinger for barn og foreldre når seksuelt eksplisitte bilder oppdages. Foto: Apple
Ved siden av de nye tiltakene i iCloud Photos la Apple til to ekstra systemer for å beskytte unge iPhone -eiere som er utsatt for overgrep mot barn. Meldinger-appen har allerede skannet bildevedlegg for barnekontoer på enheten for å oppdage innhold som potensielt er seksuelt eksplisitt. Når det er oppdaget, blir innholdet uskarpt og det vises en advarsel. En ny innstilling som foreldre kan aktivere på iCloud -kontoene i familien, vil utløse en melding som forteller barnet at hvis de ser (innkommende) eller sender (utgående) det oppdagede bildet, vil foreldrene få en melding om det.
Apple oppdaterer også hvordan Siri og Søk -appen svarer på spørsmål om bilder fra barnemishandling. Under det nye systemet vil appene “forklare brukerne at interessen for dette emnet er skadelig og problematisk, og gi ressurser fra partnere for å få hjelp med dette problemet.”