Apple afslører nye bestræbelser på at bekæmpe billeder af misbrug af børn

0
185

I en briefing torsdag eftermiddag bekræftede Apple tidligere rapporterede planer om at implementere ny teknologi i iOS, macOS, watchOS og iMessage, der vil opdage potentielle billeder af misbrug af børn, men præciserede vigtige detaljer fra det igangværende projekt. For enheder i USA har nye versioner af iOS og iPadOS, der ruller ud i efteråret, “nye kryptografiske applikationer for at hjælpe med at begrænse spredningen af ​​CSAM [materiale til seksuelt misbrug af børn] online, samtidig med at det er designet til brugernes privatliv.”

Projektet er også detaljeret i en ny “Børnesikkerhed” -side på Apples websted. Den mest invasive og potentielt kontroversielle implementering er det system, der udfører scanning på enheden, før et billede sikkerhedskopieres i iCloud. Fra beskrivelsen sker scanning ikke, før en fil sikkerhedskopieres til iCloud, og Apple modtager kun data om et match, hvis de kryptografiske bilag (uploadet til iCloud sammen med billedet) for en bestemt konto opfylder en tærskel for matchning af kendt CSAM .

Apple beskrev flere begrænsninger, der er inkluderet for at beskytte privatlivets fred

I årevis har Apple brugt hash -systemer til at scanne efter billeder fra børnemishandling, der er sendt via e -mail, i overensstemmelse med lignende systemer hos Gmail og andre cloud -e -mailudbydere. Det program, der annonceres i dag, anvender de samme scanninger på brugerbilleder, der er gemt i iCloud -fotos, selvom billederne aldrig sendes til en anden bruger eller på anden måde deles.

I en PDF -fil sammen med orienteringen begrundede Apple sine skridt til billedscanning ved at beskrive flere begrænsninger, der er inkluderet for at beskytte privatlivets fred:

Apple lærer ikke noget om billeder, der matcher ikke den kendte CSAM

database.

Apple kan ikke få adgang til metadata eller visuelle derivater for matchede CSAM -billeder, før en

tærskel for match er overskredet for en iCloud Photos -konto.

Risikoen for, at systemet forkert markerer en konto, er ekstremt lav. Derudover

Apple gennemgår manuelt alle rapporter foretaget til NCMEC for at sikre rapporteringsnøjagtighed.

Brugere kan ikke få adgang til eller se databasen over kendte CSAM -billeder.

Brugere kan ikke identificere, hvilke billeder der blev markeret som CSAM af systemet

De nye detaljer bygger på bekymringer, der var lækket tidligere på ugen, men tilføjer også en række sikkerhedsforanstaltninger, der bør beskytte mod risici for fortrolighed ved et sådant system. Tærskelsystemet sikrer især, at ensomme fejl ikke genererer advarsler, så Apple kan målrette en fejlprocent på en falsk advarsel pr. Billion brugere om året. Hashingsystemet er også begrænset til materiale, der er markeret af National Center for Missing and Exploited Children (NCMEC), og billeder uploadet til iCloud -fotos. Når en advarsel er genereret, gennemgås den af ​​Apple og NCMEC, før den advarer til retshåndhævelse, hvilket giver en ekstra beskyttelse mod, at systemet bruges til at registrere ikke-CSAM-indhold.

Apple bestilte tekniske vurderinger af systemet fra tre uafhængige kryptografer (PDF -filer 1, 2 og 3), som fandt det matematisk robust. “Efter min vurdering vil dette system sandsynligvis øge sandsynligheden for, at der findes mennesker, der ejer eller trafikerer sådanne billeder (skadelige brugere); dette skulle hjælpe med at beskytte børn, ”sagde professor David Forsyth, formand for datalogi ved University of Illinois, i en af ​​vurderingerne. “Nøjagtigheden af ​​det matchende system kombineret med tærsklen gør det meget usandsynligt, at billeder, der ikke er kendte CSAM -billeder, vil blive afsløret.”

Apple sagde imidlertid, at andre børnesikkerhedsgrupper sandsynligvis blev tilføjet som hashkilder, efterhånden som programmet udvides, og virksomheden forpligtede sig ikke til at gøre listen over partnere offentligt tilgængelige fremover. Det vil sandsynligvis øge bekymringen for, hvordan systemet kan blive udnyttet af den kinesiske regering, som længe har søgt større adgang til iPhone -brugerdata i landet.

 Advarsel om eksempler på meddelelser til børn og forældre, når seksuelt eksplicitte fotos registreres Advarsel om eksempelbeskeder til børn og forældre, når seksuelt eksplicitte fotos opdages. Foto: Apple

Sideløbende med de nye foranstaltninger i iCloud Photos tilføjede Apple to ekstra systemer til beskyttelse af unge iPhone -ejere, der er i fare for børnemishandling. Messages-appen scannede allerede billedvedhæftede filer på enheden til børns konti for at registrere indhold, der potentielt er seksuelt eksplicit. Når det er registreret, er indholdet sløret, og der vises en advarsel. En ny indstilling, som forældre kan aktivere på deres familie iCloud -konti, udløser en besked, der fortæller barnet, at hvis de ser (indgående) eller sender (udgående) det registrerede billede, får deres forældre en besked om det.

Apple opdaterer også, hvordan Siri og Search -appen reagerer på forespørgsler om billeder af misbrug af børn. Under det nye system vil apps “forklare brugerne, at interessen for dette emne er skadelig og problematisk og give ressourcer fra partnere til at få hjælp til dette problem.”